Sei sulla pagina 1di 416

Elettronica Digitale

L’elettronica è la scienza e la tecnologia del movimento delle cariche in un gas, nel vuoto o in un
semiconduttore. In particolare vedremo come semiconduttore il silicio.

La natura della disciplina dell’elettronica comprende le quattro C:

– Componenti
– Comunicazione
– Calcolo
– Controllo

Evoluzione storica

- 1904: Fleming inventa un dispositivo a due contatti, il diodo a vuoto, che chiama valvola;
- 1906: De Forest inventa il triodo a vuoto, terminale a tre contatti.
- 1947: Bardeen, Brattaine Shockley nei laboratori Bell inventano il transistore bipolare per il
quale riceveranno il premio Nobel per la fisica nel 1956;
- 1958: Kilby (Texas Instruments) concepisce l’idea di circuito integrato per la quale riceverà
il premio Nobel per la fisica nel 2000. (Noyce e Moore alla Fair child Semiconductor)

La SRAM è utilizzata come indice per i miglioramenti nell’evoluzione storica.


Di fronte alla riduzione dell’area occupata dal transistore abbiamo però l’aumento di costi ($/mm^2),
anche se nel mm^2 abbiamo più transistori. Il costo del singolo transistore quindi comunque
diminuisce. Ne consegue però un aumento dei costi di produzione.
Di conseguenza minore è il numero di aziende che sono in grado di sostenere questi costi.

Il wafer di silicio è un disco al cui interno vengono realizzati molti chip che contengono milioni di elementi
che poi vengono separati.

Col passare del tempo si ha un aumento di ‘More Moore’ con unna continua miniaturizzazione ma anche un
maggiore ‘More than Moore’ con un aumento di diversificazione.
Modelli Atomici

Modello di Rutherford (1911):


L’atomo è formato da un nucleo carico positivamente che occupa una parte molto piccola del suo volume
attorno al quale ruotano gli elettroni.
Questo modello però non sussistette con le successive evidenze sperimentali. In seguito all’evoluzione della
fisica quantistica venne suggerito un altro modello.
Modello di Bohr dell’atomo di idrogeno (1913):
1. All’elettrone sono permessi solo certi stati di moto stazionario cui competono valori ben definiti di
energia; (VERO)
2. Quando gli elettroni si trovano in questi stati l’atomo non irradia energia; (VERO)
3. In ognuno di questi stati l’elettrone descrive un orbita circolare intorno al nucleo; (FALSO)
4. Gli stati permessi sono quelli in cui il momento angolare dell’elettrone è un multiplo intero di h/2π dove
h è la costante di Planck (h=6.626 x 10-34J·s) (parzialmente VERO)

La conseguenza più importante del modello atomico fu la seguente.


La quantizzazione del momento angolare dell’elettrone porta alla quantizzazione dei livelli di
energia permessi:

dove n viene detto numero quantico principale.


En è il valore dell’energia posseduta dall’elettrone.
Modifiche apportate:
• orbite ellittiche per gli elettroni: si introduce un nuovo numero quantico l, denominato numero quantico
angolare, che assume valori tra 0 e (n-1);
• l’elettrone percorrendo un’orbita genera un campo magnetico: si introduce m, numero quantico
magnetico, che asse i valori da 0 a ±l;
• l’elettrone ruota intorno a se stesso: si introduce il numero quantico di spin, s, che vale ±1/2;

La descrizione dell’atomo necessita di quattro numeri :

A questi quattro numero dobbiamo poi associare il principio di esclusione di Pauli.


Principio di esclusione di Pauli (1925): In uno stesso atomo non possono coesistere due elettroni che
abbiano i 4 numeri quantici uguali.
Un elettrone è quindi identificato da questi quattro numeri.
Modello quantistico ondulatorio
Si basa sull’osservazione sperimentale che l’elettrone non possiede solo la natura corpuscolare ma anche
quella ondulatoria. Non è più possibile parlare di posizione dell’elettrone ma si deve parlare della
probabilità di trovare l’elettrone in una certa posizione. Non si parla più di orbita dell’elettrone ma di
“orbitale” concepito come la regione dello spazio nella quale esiste la probabilità non nulla di trovare
l’elettrone. In conclusione per descrivere completamente gli orbitali (comportamento degli elettroni nel
nostro atomo) sono necessari quattro numeri quantici, di cui n è legato all’energia, l alla forma, m alle
orientazioni relative, e s allo spin dell’elettrone. Anche per gli orbitali vale il principio di esclusione di Pauli.

La conoscenza della distribuzione degli elettroni sui possibili orbitali nello stato di minima energia è di
fondamentale importanza. In particolare, numerose delle proprietà degli atomi dipendono esclusivamente
dalla configurazione elettronica esterna in quanto, quasi sempre, sono proprio gli elettroni più esterni che
partecipano alla formazione dei legami tra atomi.

Nella tavola periodica degli elementi:


Riga = Periodo = atomi con lo stesso numero quantico principale
Colonna = Gruppo = stessa configurazione elettronica esterna, stesso numero di elettroni nell’ orbitale più
esterno
Noi focalizzeremo la nostra attenzione in questa parte della tavola periodica.

La colonna 4 è caratterizzata da quattro elettroni nell’orbitale più esterno. Nel silicio abbiamo come numero
atomico z = 14, ciò vuol dire che 14 è il numero degli elettroni (di cui 4 sono negli orbitali più esterni, gli altri
10 sono negli orbitali più interni). Il che è evidente agli esponenti dell’equazione evidenziata (s^2, p^2, 4
atomi negli orbitali più esterni).

Ci interesseranno anche B, P, As, i cosiddetti atomi droganti.

Legami chimici
In natura in condizioni normali soltanto i gas nobili si trovano allo stato atomico mentre tutti gli altri
elementi esistono solamente combinati tra loro in un numero molto grande di modi.
Da un punto di vista chimico, i legami interatomici in un solido corrispondono a configurazione di energia
minima che di solito richiede la presenza nel guscio elettronico più esterno (nell’orbitale più esterno) di 8
elettroni (regola dell’ottetto) anche se esistono numerose eccezioni.
La configurazione è raggiunta con la “condivisione” di elettroni fra due o più atomi, ovvero la funzione
d’onda associata all’elettrone non è più localizzata su di un atomo ma abbraccia più atomi.
Il silicio raggiunge una situazione stabile quindi quando riesce a ottenere altri quattro elettroni.
LEGAME IONICO: ha luogo tra due elementi dei quali il primo ha il guscio esterno quasi pieno di elettroni e il
secondo quasi vuoto. La configurazione di energia minima si ha quando gli elettroni del secondo elemento
sono ceduti al primo con la formazione di due ioni che si attraggono tra di loro. Gli elettroni sono
fortemente localizzati intorno ai rispettivi nuclei.
Per esempio uno con quasi 8 elettroni nel guscio esterno e l’altro con quasi nessun elettrone. E abbiamo
che uno cede gli elettroni mentre l’altro li acquisisce.

LEGAME COVALENTE: ha luogo tra due elementi con il guscio parzialmente riempito e la configurazione a
minima energia si ha quando ogni atomo compartecipa i propri elettroni con quelli degli atomi vicini. Gli
elettroni sono localizzati intorno ai nuclei che fanno parte del legame. È il legame del cristallo di silicio. Il
silicio ha infatti 4 elettroni nel guscio esterno (parzialmente riempito).

LEGAME METALLICO: è tipico degli elementi che hanno un solo elettrone di valenza; la configurazione
minima si ha quando tutti gli atomi compartecipano il loro elettrone. Gli elettroni sono delocalizzati, ossia
possono spostarsi liberamente, o quasi, all’interno del materiale.

Considerando il silicio:

Nel cristallo di silicio ogni atomo di silicio è collegato ad altri 4 atomo di silicio. Compartecipa un elettrone
con ognuno degli atomi di silicio adiacente, legandosi così in modo covalente.

Raggiunti gli 8 elettroni ci troviamo in una situazione di stabilità di energia e abbiamo quindi la
configurazione di equilibrio quando ogni atomo condivide i propri elettroni con gli atomi vicini.
Cenni sulla fisica dei semiconduttori e sul principio di funzionamento del diodo a
giunzione

1.1 Materiali semiconduttori


Una distinzione può essere fatta tra i vari materiali sulla base della loro resistività elettrica e quindi in base
alla capacità di consentire il flusso di portatori. I materiali caratterizzati da una conducibilità molto bassa (ro
> 10^5 cm) sono classificati come isolanti, è difficile far fluire il flusso di portatori al suo interno; quelli che
invece presentano una conducibilità molto alta (ro < 10^−2 cm) sono di solito indicati come conduttori, è
facile far fluire il flusso di portatori al suo interno. Si definiscono semiconduttori quei materiali che
presentano una conducibilità intermedia (10^−2 cm < ro < 10^5 cm).
La resistività dipende dal tipo di legame chimico che abbiamo nel materiale, nei conduttori prevale un
legame di tipo metallico; gli elettroni non sono confinati a rimanere nelle vicinanze del loro atomo di
pertinenza ma sono condivisi da atomi, sono liberi di muoversi nel materiale, ed essendo liberi di muoversi
facilmente si ha una resistività molto bassa. Nei legami ionici gli elettroni sono vincolati a rimanere nelle
vicinanze dei due ioni che hanno dato vita al legame ionico e si ha quindi un’elevata resistività.
Nei semiconduttori si ha invece un legame covalente, si ha la condivisione di elettroni tra atomi vicini.
Questo legame in alcune condizioni può essere rotto e si può così ottenere un grande vantaggio. Nei
semiconduttori si ha la possibilità di variare la resistività con opportune tecniche (drogaggio), all’interno di
questo range, aggiungendo così nel semiconduttore delle impurezze.
Un altro vantaggio dei semiconduttori di silicio è quello di poter creare facilmente del materiale isolante,
l’ossido di silicio, con una resistività molto alta.
I semiconduttori hanno inoltre una serie di caratteristiche fisiche peculiari, che li rendono adatti alla
realizzazione di dispositivi elettronici. Anche se vari semiconduttori possono essere utilizzati a questo scopo
(tra cui germanio, arseniuro di gallio, fosfuro di indio, ecc.), quello di gran lunga più diffuso e sul quale
concentreremo la nostra attenzione è il silicio, con il quale sono realizzati la stragrande maggioranza dei
dispositivi attualmente sul mercato. Un cristallo di silicio puro (di solito detto intrinseco) ha una struttura
ordinata nella quale gli atomi sono collocati in un reticolo e mantenuti in posizione da legami covalenti
formati dai quattro elettroni di valenza di ciascun atomo di silicio.
A temperature sufficientemente basse tutti i legami covalenti sono intatti e non sono disponibili elettroni
liberi, utilizzabili per la conduzione. La situazione cambia al crescere della temperatura, quando l’energia
termica diventa sufficiente a spezzare alcuni di questi legami e a rendere quindi alcuni elettroni liberi di
muoversi attraverso il cristallo e di contribuire alla conduzione.
Diffusione e drift
Esistono due meccanismi che consentono il trasporto di portatori di carica attraverso un semiconduttore: la
diffusione e il “drift”.
La diffusione è associata con il moto casuale dei portatori dovuto all’agitazione termica. In un cristallo nel
quale la concentrazione di elettroni e di lacune è uniforme, il moto termico non porta ad alcun flusso netto
di carica. Se, invece, tramite qualche meccanismo, la concentrazione di
un tipo di portatori viene resa maggiore in una regione del cristallo rispetto al resto, i portatori migreranno
dalla zona a maggior concentrazione verso quella a minore concentrazione, nel tentativo di ristabilire
l’equilibrio. Si verrà quindi a creare una corrente netta, che definiamo “corrente di diffusione”.
Nei conduttori è tipicamente trascurabile vista la mobilità dei portatori mentre nei semiconduttori la
mobilità è ridotta e quindi assume una certa importanza.
L’altro meccanismo responsabile per il trasporto di carica nei semiconduttori `e il “drift”. Esso agisce
quando è presente un campo elettrico che accelera le cariche libere disponibili all’interno di un
semiconduttore. In assenza di meccanismi dissipativi, tali cariche verrebbero accelerate indefinitamente
finchè si trovano all’interno della zona nella quale il campo elettrico è non nullo. I portatori subiscono però
degli urti anelastici dovuti alle fluttuazioni termiche del reticolo cristallino e ad altre cause, per cui
raggiungono in modo pressoché immediato una velocità di drift costante, proporzionale al campo elettrico
applicato.
Andiamo a vederla all’interno dei conduttori, materiale costituiti da legame metallico. Avere un legame
metallico significa che se vado a fare schematizzazione e indico i vari atomi del reticolo che costituisce il
metallo, li elettroni non sono confinati a stare vicini al metallo ma sono sostanzialmente liberi di muoversi
all’interno di questo reticolo.
Gli atomi diventano degli ioni, sono ioni fissi, immobili dovuto al reticolo che viene formato, diventano ioni
perché l’atomo è neutro considerando il suo elettrone corrispondente.
L’atomo che ha perso l’elettrone diventa uno ione, abbiamo degli ioni fissi positivi che consistono
sostanzialmente l’atomo costituito dal suo nucleo e da tutti gli elettroni tranne quello più esterno,
l’elettrone perso che è libero di muoversi all’interno di questo reticolo
Come avviene il movimento dell’elettrone all’interno del reticolo? In assenza di un campo elettrico
applicato, gli elettroni sono tutti condivisi rispetto agli atomi, gli elettroni si muovono (supponendo di avere
una temperatura diversa dallo 0 kelvin e quindi hanno una certa energia) nel reticolo e vanno a urtare
contro gli ioni, che sono fissi, possono al più solo oscillare nella loro posizione ma hanno una massa molto
più grande di quella degli elettroni. Sostanzialmente se un elettrone urta contro uno ione devia la sua
traiettoria e si muoverà in modo del tutto casuale in un moto caotico con direzione del tutto casuale.

In assenza di campo elettrico gli elettroni si muovono in modo del tutto casuale, compiendo continui urti
contro gli ioni e la loro velocità cambia in modulo/direzione/verso ogni volta che avviene una collisione.
Il modello comparato a questa situazione è il modello di Drude in cui si pensa agli elettroni come particelle
di un gas liberi di muoversi in modo completamente caotico, tutto ciò se
Ne consegue che se considero il movimento di tutti gli elettroni e valuto la velocità con cui si spostano gli
elettroni il valore medio della velocità che assumono tutti gli elettroni posso dire che è uguale a 0, perché
essendo un movimento del tutto caotico, se prendo una sezione del materiale ho un numero uguale di
elettroni che vanno da destra a sinistra e viceversa e se faccio quindi la somma di tutte le velocità ottengo
una velocità nulla, è come se gli elettroni presi nel loro complesso non si muovono.
Ho, da un punto di vista macroscopico, elettroni che hanno velocità media nulla.

Se applico invece un campo elettrico diverso da 0, essendo un elettrone una particella carica
negativamente, se applico un campo elettrico nella direzione disegnata in figura, al moto termico caotico
dell’elettrone si va a sovrapporre un moto importato dal campo elettrico.
Il campo elettrico va a esercitare una forza sull’elettrone spingendolo in verso
opposto al campo elettrico. Il campo elettrico porta l’elettrone a subire urti ma
pur subendo continuamente urti come prima però macroscopicamente
l’elettrone tende a muoversi in verso opposto al campo elettrico.
L’elettrone acquisisce uno spostamento in direzione opposta al campo
elettrico. L’elettrone continua ad avere degli urti con ioni presenti nel reticolo,
urta contro uno ione, perde parte dell’energia ma continua a essere
accelerato.
Un’analogia considerabile è quella di un flipper e avere un campo elettrico ha come analogia quella di
inclinare il tavolo. Ha sia il moto termico che il moto imposto al campo elettrico.
Se vado a calcolare la velocità media assunta dagli elettroni in corrispondenza dell’applicazione del campo
elettrico, visto che tuti si muovono in direzione opposta al campo elettrico allora la velocità media sarà != 0.
Le cariche si spostano nella direzione del campo elettrico ma con verso opposto.
Per studiare questo movimento si fa l’ipotesi che tra due urti due elettroni sono soggetti alla sola forza
elettrica, si ha un campo elettrico costante, sotto l’azione del campo elettrico il portatore tende ad
accelerare con un incremento lineare della velocità, la velocità aumenta linearmente tra urto e un altro,
con gli urti con ioni di tipo inelastico e dopo l’urto non sono in grado di dire nulla sulla direzione, sul verso e
sulla velocità.
Considerando ora il grafico della componente della velocità dovuta al campo elettrico (depurata dalla
componente termica).
Dopo ogni urto l’elettrone ha perso l’energia acquisita e ha una velocita casuale, quella dovuta al campo
elettrico torna essere 0.
Qui parliamo del modulo della velocità del singolo elettrone. La velocità aumenta linearmente, si ha infatti
un’accelerazione costante, e in presenza di un urto, questo fa sì che l’elettrone perda la sua velocità e
ricominci. La pendenza delle curve è costante perchè l’ipotesi è quella di mantenere il campo elettrico
costante. Ogni elettrone avrà un grafico di questo tipo e se prendo la velocità mediamente acquisita da tutti
ho che il valor medio è diverso da 0. Assumendo che i grafici siano tutti di questo tipo, ho una velocità
media diversa da 0, questa velocità media diversa da 0 è detta velocità di drift. E’ la velocità media che
assumono gli elettroni all’interno di un conduttore per effetto dell’applicazione del campo elettrico.

L’andamento della velocità dell’elettrone nel tempo, depurata della componente termica risulta pertanto a
dente di sega, come rappresentato nella figura precedente.
Ricordiamo che stiamo trascurando la componente dovuta alla velocità termica in questo modello dovuto
da Drude.

Se depurata dalla velocità termica, prendendo la velocità di drift, si dimostra che la velocità di drift che
raggiungono gli elettroni è proporzionale al campo elettrico attraverso un coefficiente (pedice n per
ricordarci che stiamo parlando di elettroni) detto mobilità degli elettroni (con unità di misura m^2/(V*s)):

Questa è l’espressione vettoriale ma basta ricordarci che l’elettrone è portatore di carica negativa quindi si
muove in verso opposto al campo elettrico e molte volte si usa tralasciando la dicitura vettoriale,
ragionando in modulo la relazione :

Con questa relazione che abbiamo trovato siamo in grado di scrivere la legge di Ohm microscopica? (la
legge microscopica è quella che lega la densità di corrente al valore del campo elettrico)
Supponiamo di prendere un tratto di conduttore cilindrico con lunghezza L e sezione A a cui abbiamo
applicato un campo elettrico E diretto da destra verso sinistra. Nei metalli abbiamo elettroni liberi di
muoversi e macroscopicamente elettroni presenti nel materiale avranno una velocità di drift in direzione
opposta al campo elettrico. Andiamo a determinare l’espressione della corrente che attraversa il nostro
conduttore, indichiamo con N il numero di elettroni contenuti all’interno del cilindro.
Scriviamo la velocità di drift come:

dove T è il tempo impiegato da un elettrone a percorrere tutta la lunghezza L (il tempo che l’elettrone che
sta all’estremo sinistro impiega per percorrere tutto il materiale).
La corrente è definita come l’unita di carica nell’unita di tempo attraverso una sezione del nostro
conduttore, prendiamo come riferimento la sezione di uscita.

Scegliamo come quantità di tempo una quantità pari a T. Osservo quindi per t che va da 0 a T. Se osservo la
quantità di carica che passa dalla sezione A per un tempo pari a T, passeranno tutte le cariche che sono
contenute in questo cilindro. Prima arriveranno quelle vicine e poi anche l’ultima a destra avrà il tempo di
percorrere tutto il cilindro e attraversare la sezione A. La carica attraversata dalla sezione A è tuta quella
contenuta nel cilindro, ho un numero di elettroni pari a N con carica pari a q, dove q è il modulo.

Al posto di T poso scrivere il valore della velocità di drift. Se voglio l’andamento della densità di corrente J, è
definita come la corrente diviso la sezione in cui passa.

L * A è il volume di questo cilindro. Ma N/Volume non è altro che la concentrazione di cariche n,


concentrazione di elettroni, numero di elettroni per unità di volume.
Ma per il modello di drude velocità di drift legata al campo elettrico.

Il prodotto è detto conducibilità, la cui unità di misura è l’inverso della resistività. [1/(ohm * cm)]
In quanto:

La conducibilità di un conduttore è quindi il prodotto tra la concentrazione di elettroni, la carica posseduta


da ciascun elettrone e la mobilità degli elettroni all’interno del materiale
Calcoliamolo per dei valori tipici presente nei metalli.

Un conduttore ha conducibilità dell’ordine di:

Come abbiamo vista prima, il valore di conducibilità è molto piccolo.


La seguente relazione è detta legge microscopica di Ohm.

E’ la legge di Ohm in cui si va a esprimere un legame tra la densità di corrente in funzione del campo
elettrico. (la densità di corrente è nella direzione del campo elettrico)
Nel caso dei semiconduttori la differenza consiste innanzitutto nel capire se ci sono cariche mobili, la
velocità di drift è infatti dovuta allo spostamento di cariche mobili. Partiamo da semiconduttori intrinseci,
semiconduttori perfettamente puri, costituito da un reticolo cristallino costituito solamente da atomi di
silicio.

Il reticolo è composto da atomi di silicio disposti regolarmente, ognuno dei quali ha 4 elettroni condivisi con
i 4 elettroni provenienti da altri atomi in modo che si abbia una configurazione di energia minima in cui
l’atomo di silicio è costituito da 8 elettroni nel guscio esterno, che gli danno una configurazione stabile.
Poso avere questa situazione solo allo 0 kelvin, 0 assoluto, in cui la presenza del legame covalente costringe
gli elettroni a rimanere nella zona corrispondente all’atomo corrispondente.
Questi elettroni non possono allontanarsi da questa zona. Allo 0 kelvin non ho cariche mobili.
La concentrazione di elettroni che si possono muovere (n è infatti la concentrazione di elettroni liberi di
muoversi) è nulla. Questo perché gli elettroni non si possono allontanare. Anche se applico un campo
elettrico, a meno che non sia elevato da portare a una rottura del legame, per campi elettrici piccoli che
non rompono legami covalenti, la conducibilità è sostanzialmente nulla allo 0 kelvin, non ho cariche che si
possono muovere per effetto del campo elettrico.
A temperatura ambiente, gli elettroni come gli ioni, acquisiscono energia termica quindi anche gli elettroni
più esterni, alcuni degli elettroni più esterni di questi 8 elettroni che danno origine a questi legami
covalenti, acquisiscono un’energia sufficiente a rompere il legame. L’elettrone è quindi in grado di acquisire
energia e allontanarsi dalla zona, diventando così libero di muoversi nel reticolo.
All’aumentare della temperatura alcuni elettroni sono in grado di allontanarsi dal legame, alcuni legami
covalenti si rompono, l’elettrone non è più vincolato a rimanere negli atomi di silicio a cui prima era
vincolato a rimanere.

La concentrazione di elettroni liberi generati per effetto della temperatura ha una legge di questo tipo:

Dove il pedice i si usa per indicare il fatto che si parla di semiconduttore intrinseco. E’ funzione della
temperatura con una legge di questo tipo.
Eg è l’energia di gap ed è l’energia che serve a rompere il legame covalente, quindi a consentire
all’elettrone di acquisire un’energia sufficiente per scappare da quella posizione. Il silicio ha una sua energia
di gap. k è la costante di Boltzmann.
All’aumento della temperatura si ha un aumento esponenziale della concentrazione di elettroni liberi
all’interno del semiconduttore. (quello esponenziale predomina rispetto all’altro coefficiente)
Alla temperatura di 300 kelvin, quindi a temperatura ambiente si ha:

ni è grande, piccolo? Facciamo qualche conto. Consideriamo quanti sono i legami in cristallo di silicio, la
contrazione di atomi nel silicio è 5 * 10^22 atomi di Silicio / cm^3, ogni atomo ha 4 legami covalenti, 4
elettroni nel suo guscio esterno, ogni atomo contribuisce con 4 legami covalenti (gli altri 4 sono infatti dei
vicini) e quindi la contrazione di legami covalenti è pari a 5 * 10^22 * 4 = 2 * 10^23 /cm^3.
Di cui quelli che si sono rotti a temperatura ambiante sono 10^10. Sostanzialmente ho un legame rotto ogni
circa 10^13 a T = 300 K.
Soltanto un legame ogni 10^13 legami si è interrotto a temperatura ambiente. Il numero non è molto
elevato infatti la conducibilità nel semiconduttore intrinseco è piuttosto ridotta.
A questo punto si comprende il motivo del comportamento elettrico dei semiconduttori, che conducono
meglio degli isolanti (nei quali il numero dei portatori liberi è ridottissimo) e peggio dei conduttori (nei quali
il numero dei portatori liberi è comparabile con quello degli atomi).
Affrontiamo ora un altro problema. Quando si rompe un legame, quindi siamo a T != 0 K, la rottura del
legame porta alla formazione di elettroni liberi pero contemporaneamente nel semiconduttore si viene a
creare una vacanza, un’assenza di legame, si genera un cosiddetto posto vuoto, la rottura del legame fa sì
che il posto precedentemente occupato dall’elettrone dove avevo il legame covalente si sia venuto a
liberare. All’interno di un semiconduttore, se applico un campo elettrico diretto in una certa direzione,
l’elettrone liberato acquisirà una velocità di drift in direzione opposta al campo elettrico.
Contemporaneamente però la presenza di un campo elettrico che spinge in direzione opposta può far
spostare un elettrone da un legame vicino al posto libero dovuto dalla rottura di un legame. Il legame si è
rotto per effetto dell’energia termica ma l’applicazione del campo elettrico agisce sia sugli elettroni liberi
ma anche sugli elettroni nei legami ed è probabile che un elettrone che si trova vicino al posto vacante
venga trascinato per occupare il posto vacante.

All’istante t = t1, per effetto del campo elettrico, il legame si è ricomposto ma la rottura del legame si è
spostata in un’altra posizione. Il legame che prima era interrotto in questa posizione si è spostato in un
altro punto.

Se continuo ad applicare il campo elettrico in un legame adiacente possono a loro volta spostarsi in quella
posizione. In un semiconduttore ho quindi due tipologie di spostamento, lo spostamento degli elettroni
liberi e lo spostamento delle vacanze.
Si è spostata la vacanza in direzione opposta all’elettrone, nella stessa direzione del campo elettrico, da
destra verso sinistra, dovuto al fatto che l’elettrone si è spostato da sinistra verso destra.
Per tenere in considerazione che all’interno di un semiconduttore, quando viene applicato il campo
elettrico ho due tipologie di spostamenti diversi non si considera una sola particella ma bensì due particelle:
l’elettrone, particella di carica negativa, che si è liberata e spostata, e la lacuna che si va a trattare
introducendo una particella fittizia, che si comporta come una carica positiva in modulo uguale a quella
dell’elettrone.
Il concetto di lacuna è legato al fatto che all’interno di un semiconduttore posso avere due tipologie di
spostamento. Lo spostamento degli elettroni liberi che si comportano allo stesso modo degli elettroni in un
conduttore ma ho anche degli elettroni che si spostano da una lacuna all’altra. Lo studio di questo
spostamento è molto semplificato se invece di considerare la vacanza che si sposta da destra verso sinistra
introduco la particella fittizia che ha carica positiva uguale in modulo alla carica dell’elettrone.
Il comportamento è studiato in modo più efficace se si introduce questa particella fittizia.
Quindi, in sintesi, quando un elettrone diventa libero, al suo posto rimane una “lacuna” o “buca”, che
equivale in un certo senso a una carica positiva. Tale lacuna può essere riempita da un elettrone liberatosi
da un legame covalente vicino, che, a sua volta, crea una nuova lacuna. In questo modo anche le
lacune possono quindi comportarsi come cariche libere e trasportare corrente.
Sostanzialmente all’interno del semiconduttore vado a considerare non un portatore di carica ma due
portatori di carica, gli elettroni e le lacune. Le cariche che si muovono sono sempre gli elettroni e hanno due
possibilità di muoversi, quindi avremo due concentrazioni di portatori.
n: concentrazione di elettroni liberi, elettroni liberati che si possono muovere liberamente nel reticolo
p: concentrazione delle lacune
Se siamo in un semiconduttore intrinseco la concentrazione di elettroni e di lacune coincidono, avrò tante
vacanze disponibili tanti quanti sono gli elettroni liberi che si sono generati.

In un semiconduttore intrinseco avremo che la concentrazione di elettroni liberi e di lacune coincidono. Il


numero di lacune sarà sempre uguale al numero di elettroni liberi generati.
All’interno di un semiconduttore in realtà le cose sono più complicate, nulla vieta che un elettrone libero
nel suo movimento all’interno del reticolo non vada ad occupare un posto vuoto, questo processo è detto
processo di combinazione. Mentre il processo di rottura del legame è detto processo di generazione
termica esiste anche il processo inverso in parallelo, se un elettrone che si sta muovendo incontra nel suo
cammino una vacanza, può andare ad occuparla. A una certa temperatura si stabilisce un equilibrio tra
processo di generazione termica e ricombinazione termica, che sono entrambi sempre presenti con
temperatura != 0 K. I due tassi di generazione e ricombinazione si equivalgono all’equilibrio e danno vista
alla legge n = p = ni. Questa porta poi ad una conseguenza, la cosiddetta legge azione di massa.

Questa legge è importante perché è evidentemente soddisfatta in un semiconduttore intrinseco, visto che
abbiamo perfetta equivalenza tra n e p, ma questa legge di azione di massa vale anche per i semiconduttori
non intrinseci, la condizione per cui deve valere è però quella dell’equilibrio termodinamico, per cui il
prodotto di n e p valrà ni^2.

Trovato questo proviamo a calcolare la densità di corrente di drift in un semiconduttore intrinseco.


Ora ho due particelle, una carica positiva e una carica negativa di modulo uguale che in un semiconduttore
intrinseco sono in uguale concentrazione ed entrambe si possono muovere. Il movimento degli elettroni
porta alla densità di corrente di drift, pari alla carica dell’elettrone * la concentrazione * la velocità di drift.
La corrente va nello stesso verso del campo elettrico (come infatti torna visto che ho una carica negativa
che si muove in verso opposto al campo elettrico).

A questa dobbiamo aggiungere la densità di corrente di drift dovuta alle lacune, pari alla carica * la
concentrazione delle lacune * la velocità di drift delle lacune (sarà data da una propria mobilità, le mobilità
sono tutte positive).

Anche la densità di corrente dovuta alle lacune è nello stesso verso campo del campo elettrico.
La densità della corrente totale di drift risulta pertanto:
Ho quindi due componenti perché a muoversi sono sia gli elettroni che le lacune. Si noti che questa è la
rappresentazione puntuale della legge di Ohm J = sigma * E. La conducibilità di un semiconduttore quindi è
data da:

Rispetto a un conduttore, in un semiconduttore abbiamo due termini.


Sicuramente possiamo dire che la mobilità delle lacune sarà più piccola della mobilità degli elettroni, visto
che la seconda si riferisce ad un elettrone libero di muoversi nel reticolo, mentre la prima si può muovere
solo attraverso legami, ha una mobilità più piccola.

Quindi, riassumendo, nel silicio intrinseco, a una temperatura diversa da 0, gli elettroni assumono
un’energia sufficiente da allontanarsi dai legami diventando elettroni liberi ma, contemporaneamente,
quando viene applicato un campo elettrico posso avere un movimento di elettroni da un legame pieno a
una vacanza che si è venuta a creare.
In un silicio intrinseco il numero di elettroni per unità di volume è uguale al numero di lacune per unità di
volume. La concentrazione ni dipende dalla temperatura in modo esponenziale e nel caso di silicio
intrinseco vale 10^10 cm^-3. Abbiamo visto inoltre la legge azione di massa.

La legge di azione di massa vale anche per il silicio non intrinseco.


Nel silicio intrinseco calcolando l’espressione della densità di corrente di drift abbiamo visto il valore della
conducibilità. La corrente di drift ha lo stesso verso del campo elettrico sia che ci stiamo riferendo agli
elettroni che alle lacune. Abbiamo quindi calcolato la conducibilità del silicio. Nel caso di silicio intrinseco
abbiamo n = p = ni, visto che gli elettroni liberi e le lacune si formano in coppie, la lacuna si forma in
contemporanea al fatto che si è liberato un elettrone. Ma le mobilità sono diverse, la tipologia di
movimento che le cariche possono fare è diversa. L’elettrone libero è libero di muoversi all’interno di tutto
il reticolo mentre lo spostamento della lacuna può avvenire solo in alcuni modi, per esempio spostandosi in
una vacanza vicina. La mobilità degli elettroni è maggiore della mobilità delle lacune.

Il rapporto che c’è è dell’ordine quasi di tre volte.

Nel caso di silicio intrinseco, per esempio, possiamo avere:

La conducibilità vale con questi valori:

p e n sono gli stessi e ni = 10^10 perché siamo a temperatura ambiente).


In un silicio intrinseco a temperatura ambiente abbiamo una resistività dell’ordine di 10^5, quindi il silicio
intrinseco è molto simile ad un materiale isolante, ha una conducibilità molto bassa, quindi una resistività
molto alta. Questo perché confrontando ni con il numero di elettroni che troviamo in un conduttore (10^10
con 10^21 come visto prima) vediamo un enorme differenza, la conducibilità è bassa.
Un vantaggio dei semiconduttori è però quello di poter modificare il valore della conducibilità e della
resistività del silicio andando ad operare col drogaggio.

Drogaggio del silicio – Semiconduttori drogati

Le proprietà del silicio intrinseco finora viste, in particolare quella di avere un uguale numero di lacune e di
elettroni liberi, possono essere modificate tramite l’aggiunta, in piccole quantità, di altre specie chimiche
definite “droganti”.
Il drogaggio è un processo tecnologico che consente di andare a sostituire alcuni atomi di silicio con atomi
diversi.
Gli atomi che vengono utilizzati nella sostituzione sono alcuni degli atomi che appartengono al gruppo 5 o al
gruppo 3. Il silicio come sappiamo appartiene al gruppo 4 (4 elettroni nell’orbitale più esterno),
Vediamo cosa accade se sostituisco un atomo di silicio con un atomo del gruppo 5. Tipicamente tra gli
atomi di questo gruppo viene scelto il Fosforo(P) o l’Arsenico(As).
Il processo tecnologico è tale da permettere la sostituzione di un atomo di silicio con un atomo di fosforo.
Il fosforo è un elemento chimico che ha 5 elettroni nell’orbitale più esterno, ha un elettone in più e 4 dei
suoi elettroni li metterà a disposizione con dei legami covalenti con degli atomi di silicio adiacenti e avremo
così gli 8 legami covalenti. C’è un elettrone che è presente nell’orbitale più esterno del fosforo che rimarrà
legato all’atomo di fosforo, però non è coinvolto in nessuno dei legami covalenti con gli atomi di silicio
vicini. Questa è la situazione allo 0 K.

Se la temperatura aumenta, questo accade sicuramente a temperatura ambiente, l’elettrone in più che non
era coinvolto in nessun legame assume facilmente un’energia sufficiente ad allontanarsi dall’atomo di
fosforo a cui apparteneva e diventare un elettrone libero.
Le forze di legame per lui sono più piccole degli altri e quindi è sufficiente una piccola energia (quella che
abbiamo a temperatura ambiente) per far sì che l’elettrone resca a svincolarsi dall’atomo a cui appartiene.
Introducendo quindi atomi droganti di un elemento pentavalente, come il fosforo, ogni volta che una di tali
impurezze sostituisce un atomo di silicio nel reticolo cristallino va a formare quattro legami covalenti con
altrettanti atomi di silicio, mentre il quinto elettrone di valenza (il fosforo è un elemento del gruppo V)
diviene libero e quindi disponibile per la conduzione. Pertanto, il fosforo dona un elettrone libero al cristallo
di silicio e viene dunque definito un “donatore”.
Dopo che avviene questo allontanamento, l’atomo di fosforo era neutro nel momento in cui aveva 5
elettroni nel suo orbitale più esterno, avendone perso uno l’atomo di fosforo è diventato uno ione positivo.
Gli atomi donatori avendo perso un elettrone non sono più degli atomi neutri ma si sono trasformati in ioni
positivi che sono però fissi.
Ho nel complesso uno ione positivo fisso in una posizione del reticolo e un elettrone che si è reso libero.

In termini di cariche mobili, il processo di drogaggio ha dato esclusivamente cariche negative (elettroni
liberi) e non anche delle cariche positive, non ha portato a delle lacune.
Il processo di drogaggio con elementi del gruppo V va quindi ad aumentare solo la concentrazione delle
cariche negative libere. Si è formato uno ione positivo ma non è in grado di muoversi quindi in termini di
concentrazione di cariche abbiamo un elemento solo nella concentrazione di elettroni liberi.
Utilizzando invece come droganti delle impurezze trivalenti (appartenenti al gruppo III) come il boro
avviene la situazione opposta. E’ un elemento con soli 3 elettroni nel suo orbitale più esterno, il Boro non
potrà fornire elettroni che consentono di partecipare a tutti e 4 i legami covalenti. Ciascun atomo di
boro dispone di soli tre elettroni di valenza, per cui potrà formare soltanto tre legami covalenti. Nel quarto
legame sarà quindi presente una lacuna.
A temperatura ambiente ci sarà già la possibilità da parte di un elettrone di un atomo silicio adiacente di
spostarsi ed andare ad occupare la vacanza introdotta dall’atomo di Boro e creare appunto una lacuna.

Poichè le lacune così formate sono in grado di “accettare” elettroni, i droganti di questo tipo sono detti
“accettori”. L’atomo di Boro che era neutro quando nel suo orbitale più esterno aveva 3 elettroni, avendo
accettato un elettrone si è trasformato in uno ione negativo.
Questo processo, quindi ha portato alla generazione di una lacuna e uno ione negativo che però risulta
essere fisso
Il drogaggio con elementi di gruppo III porta a un incremento esclusivamente della concentrazione delle
lacune libere ma non degli elettroni liberi.
Il drogaggio è quindi sostanzialmente un processo tecnologico che può avvenire con elementi del gruppo
3,5 con lo scopo di incrementare una delle due tipologie di portatori.
Ci sono anche drogaggi che si possono fare per incrementare entrambe le concentrazioni.
La sostituzione dell’atomo può essere fatta solo con materiali con una dimensione dell’atomo comparabile
a quella del silicio così da poter essere inserito nel reticolo senza avere distorsioni eccessive del reticolo
stesso. I più utilizzati sono il Boro, il Fosforo e l’Arsenico.
Possiamo dire che effettuando il drogaggio, parlando quindi di silicio drogato, ci troviamo sicuramente nella
situazione in cui le due concentrazioni non sono più uguali.
A seconda del fatto che la concentrazione di elettroni liberi sia maggiore delle lacune o viceversa, si parlerà
di :

Posso quindi avere silicio di tipo n o silicio di tipo p, rispettivamente con concentrazione degli elettroni
maggiore di quello delle lacune o viceversa.
Inoltre, il portatore che è in concentrazione maggiore (nel caso di semiconduttore di tipo n è quindi
l’elettrone) è detto portatore maggioritario.
Se in una regione parliamo di portatore maggioritario significa che quel portatore è in maggiore
concentrazione. Il portatore in concentrazione minore è invece detto portatore minoritario.

Determiniamo ora la concentrazione degli elettroni e delle lacune.


Il materiale, globalmente, da un punto di vista macroscopico, visto che ogni atomo che ho inserito nel
reticolo è neutro, avrà a disposizione un egual numero di elettroni e cariche positive che appartengono al
nucleo, globalmente il nostro silicio è quindi neutro. Il materiale deve rimanere neutro:

Però all’interno del nostro materiale nel caso generale gli atomi donatori hanno donato il loro elettrone (ho
elettroni liberi per effetto del drogaggio e ioni positivi fissi) mentre per gli accettori (ho delle lacune libere e
ioni negativi fissi) e in più la generazione termica è sempre presente, la generazione di coppie
elettroni/lacune per effetto della temperatura continua a essere presente.
Se vado a fare un conteggio delle cariche complessive che ho nel materiale, ho un conteggio di questo tipo.

Abbiamo anche delle cariche negative nel materiale, che sono gli atomi accettori che ho inserito che si sono
ionizzati accettando un elettrone.
Le cariche positive presenti sono la concentrazione di lacune e la concentrazione di atomi donatori ionizzati,
atomi inseriti che hanno donato un loro elettrone
Comunque deve valere in ogni caso che la concentrazione cariche negative è uguale alla concentrazione
cariche positive.
Per trovare il valore di n e p posso utilizzare questa relazione che devo per forza avere nel mio materiale e
posso anche usare la legge dell’azione di massa.

Nel silicio drogato avrò generalmente n != p ma utilizzando le due equazioni ho due equazioni e due
incognite e da queste due equazioni ottengo il valore di n e di p, in questo modo potremo determinare la
conducibilità nel materiale drogato.
Si parla solo di due incognite perchè NA e ND, avendo fatto il processo di drogaggio li conosco, mi
permettono di scegliere la concentrazione di atomi droganti inseriti.

Prendiamo per esempio il caso di un semiconduttore di tipo n, in cui ho fatto esclusivamente un drogaggio
di tipo n, includendo atomi donatori. Il range tipicamente utilizzato è il seguente.

Posso fare la seguente ipotesi, a T = 300K (a temperatura ambiente) se risolvo il sistema di equazione, la
concentrazione degli elettroni liberi è circa uguale alla concentrazione degli atomi donatori che hanno
donato, e a temperatura ambiente posso assumere che tutti gli atomi siano donatori (questa seconda
equivalenza è vera per T >= 300 K , temperature nell’ordine della temperatura ambiente).

Posso ipotizzare a queste temperature che tutti gli atomi donatori hanno ceduto il loro elettrone, hanno
avuto un’energia sufficiente, e quindi la concentrazione è circa uguale a ND.
Di fatto la concentrazione degli elettroni sarebbe dovuta da quelli generati termicamente e quelli generati
per il drogaggio. Se faccio un drogaggio in questo range è evidente che questa concentrazione è molto
maggiore di ni e di fatto la concentrazione degli elettroni disponibili coincide con quella degli atomi
donatori ionizzati che a temperatura ambiente coincide con quella degli atomi donatori.
Se determino d questa relazione il valore di n, come calcolo p?
Se n lo conosco allora p sarà dato dalla legge dell’azione di massa.

Dove ho il circa uguale perché assumo n circa uguale a ND.

Per esempio se prendo:

Visto che ni è pari a 10^10 a temperatura ambiente


Ho aumentato la concentrazione di portatori liberi e ho abbassato contemporaneamente la concentrazione
delle lacune a 10^5.
n si alza perché va a produrre degli elettroni in più di quelli generati termicamente.
Ci si potrebbe chiedere perchè si abbassa la concentrazione delle lacune? Il meccanismo fisico che fa
diminuire la concentrazione delle lacune è che, visto che esiste il fenomeno della ricombinazione,
termicamente si genererebbero 10^10 lacune ma nulla vieta che alcuni degli elettroni in più che ho inserito
col drogaggio vadano a occupare delle lacune generate termicamente.
Si assiste a una serie di fenomeni : generazione termica di copie elettroni/lacune, la generazione di elettroni
liberi e la ricombinazione, tutti presenti contemporaneamente e la situazione di equilibrio che si viene a
generare è quella indicata dalla legge dell’azione di massa.
Il prodotto rimane a un valore costante pari a ni^2 (a temperatura costante, se cambio temperatura cambia
anche ni).Ho aumentato la concentrazione di elettroni liberi ma contemporaneamente ho diminuito la
concentrazione delle lacune.
Il meccanismo opposto avviene nel caso di silicio di tipo p. Se per esempio effettuo il drogaggio con soli
accettori:

Adesso è p ad essere circa uguale a Na- che, a temperatura ambiente, a sua volta è circa uguale a Na, visto
che gli atomi accettori ionizzati coincidono con gli atomi accettori.

dove 10^20 è ni^2 a 300 K.

Effetti risultanti del drogaggio sulla conducibilità


Il silicio intrinseco ha una conducibilità molto bassa, comparabile a quella di un materiale isolante.
Il drogaggio mi modifica n e p e mi modifica leggermente anche la mobilità portando alla sua riduzione,
visto che il reticolo cristallino mi viene modificato leggermente.

La mobilità in questo esempio è un valore trovato per questo tipo di drogaggio.


Il silicio drogato ha una mobilità inferiore rispetto al silicio non drogato. Se calcolo la conducibilità, trovo:
Ho modificato notevolmente la resistività del silicio. Confrontando il silicio intrinseco e il silicio drogato:

Ho variato di 5 ordini di grandezza la conducibilità o meglio la resistività del mio semiconduttore


effettuando un drogaggio, che non è neanche molto intensivo visto che ho introdotto solo 2* 10^-5 atomi
per cm^3.

La concentrazione di atomi di silicio è 5*10^22 cm^-3, abbiamo introdotto un atomo di drogante ogni 10^7
atomi di silicio. Sostituendone uno ogni 10 milioni sono riuscito a ridurre la resistività del silicio di 5 ordini di
grandezza, 100.000 volte. Ho modificato fortemente il comportamento del semiconduttore.

Effetti della temperatura sulla conducibilità


Abbiamo visto che la conducibilità in un semiconduttore è data dall’espressione:

La temperatura ha effetti sia sul valore delle concentrazioni dei portatori sia sulla mobilità.
Nei conti fatti finora abbiamo ipotizzato di avere una temperatura costante.
Abbiamo varie grandezze su cui può agire la temperatura.
Le mobilità sono dipendenti dalla temperatura ed entrambe in realtà hanno la stessa dipendenza dalla
temperatura. La concentrazione dei portatori può dipendere dalla temperatura, del resto se ragioniamo nel
caso di silicio intrinseco ni dipende esponenzialmente dalla temperatura.

Analizziamo la dipendenza da questi termini.


All’interno di un semiconduttore nel range di temperatura di interesse per le applicazioni elettroniche, la
mobilità diminuisce all’aumentare della temperatura con un andamento proporzionale a T^-1.5.

Considerando la mobilità degli elettroni abbiamo che all’interno del nostro reticolo considerando un
elettrone in movimento, se aumento la temperatura è vero che gli atomi di silicio non si possono spostare
dalla loro posizione ma questi vibrano nella loro posizione. Il reticolo possiede energia termica e quindi gli
atomi non sono idealmente fissi, vibrano intorno alla loro posizione di equilibrio.
La probabilità che l’elettrone vada a urtare contro un atomo (come abbiamo visto nel modello di Drude)
aumenta all’aumentare della temperatura perché gli atomi nel reticolo oscillano maggiormente.
Aumenta la probabilità che questo elettrone faccia degli urti, il suo percorso diventa molto più accidentato.
Sono urti anelastici perché la massa dell’elettrone è molto più piccola della massa del nucleo dell’atomo e
quindi l’elettrone perde quasi tutta la sua energia.
All’aumentare della temperatura si ha una riduzione della mobilità perché si ha un’oscillazione maggiore
degli atomi, gli urti sono molto più frequenti.
Nella concentrazione dei portatori dobbiamo distinguere due casi.
Nel caso del silicio intrinseco, la densità dei portatori aumenta con la temperatura in modo esponenziale.

ni dipende esponenzialmente dalla temperatura, quindi se aumento la temperatura, ni aumenta


esponenzialmente. n e p nel caso del silicio intrinseco aumentano in modo esponenziale con T.
Mentre come sappiamo le due mobilità diminuiscono come T^-3/2.
Quindi la concentrazione aumenta esponenzialmente, la mobilità certo diminuisce ma diminuisce meno
velocemente e quindi abbiamo che, dal fatto che uno dipende in modo esponenziale e l’altro come t^-3/2,
l’aumento della concentrazione dei portatori predomina sulla riduzione della mobilità e di conseguenza la
conducibilità aumenta.

Nel caso di silicio intrinseco, la concentrazione di lacune e quella di elettroni aumentano con la
temperatura, ma le mobilità hanno una dipendenza opposta dalla temperatura, almeno per valori della
stessa interessanti per le applicazioni elettroniche. L’incremento del numero di portatori prevale peraltro di
gran lunga sulla diminuzione di mobilità e quindi la conducibilità aumenta significativamente all’aumentare
della temperatura.

Nel caso di silicio drogato, alla mobilità accade la stessa cosa mentre la concentrazione dei maggioritari, nel
drogaggio a temperature di normale interesse (da – 40 a 200 gradi all’incirca), è praticamente uguale a
quella del drogante e quindi è indipendente dalla temperatura, almeno nel range di temperatura di
normale interesse. Quindi rimane costante.
La concentrazione di minoritari dipende dalla temperatura ma rimane trascurabile rispetto a quella dei
maggioritari. Il denominatore rimane costante ma il numeratore cambia con la temperatura in modo anche
esponenziale, ma il denominatore risulta essere molto grande.

Mettendo insieme queste quantità l’unica cosa che varia con la temperatura sono le mobilità che
diminuiscono, quindi predomina la diminuzione della mobilità con T. Quindi la conducibilità diminuisce.
Nel silicio drogato la conducibilità diminuisce con la temperatura. La corrente è prevalentemente
trasportata dai portatori maggioritari, la cui concentrazione è sostanzialmente pari a quelle della specie
drogante e quindi indipendente dalla temperatura (almeno per la gamma di temperature di normale
interesse, all’interno della quale tutti i droganti possono essere assunti ionizzati). In questo caso, quindi, la
conducibilità diminuisce all’aumentare della temperatura, a causa del decrescere della mobilità.
Gli effetti sono diversi a seconda se parlo di silicio drogato o intrinseco.

Siamo quindi in grado per il semiconduttore di scrivere la densità di corrente dovuta al drift quando
conosciamo il campo elettrico, in funzione della conducibilità. E quest’ultima siamo in grado di scriverla
note le concentrazioni e le mobilità.
Corrente di diffusione
In presenza di un semiconduttore c’è un altro fenomeno per il trasporto di portatori di carica, la diffusione,
associata con il moto casuale dei portatori dovuto all’agitazione termica ed è presente quando esiste nel
materiale una concentrazione di portatori non uniforme. E’ un fenomeno legato esclusivamente
all’agitazione termica.
Si verifica in vari settori, anche nel caso di gas, per esempio quando apriamo una boccetta che contiene un
profumo, una parte dell’essenza di profumo si espande all’esterno, è un processo di diffusione.
La concentrazione di profumo all’interno della bottiglia è molto maggiore della concentrazione di profumo
all’esterno, visto che si ha una concentrazione di portatori non uniforme.
Tutto ciò vale anche coi portatori di carica e quindi in presenza di una concentrazione di portatori non
uniforme, i portatori si muoveranno dalla zona a maggior concentrazione verso quella a minor
concentrazione, nel tentativo di ristabilire l’equilibrio. Ogni processo di diffusione ha una propria
tempistica, se posso farlo proseguire per un tempo infinito posso raggiungere l’equilibrio.

Se ci mettiamo in un caso monodimensionale ed esprimiamo la concentrazione di elettroni in funzione della


coordinata x e supponiamo di avere in un certo istante una concentrazione in funzione di x non uniforme,
per il processo di diffusione, se prendiamo il nostro elettrone, questo tenderà a muoversi dalle zone a più
alta concentrazione verso le zone a minore concentrazione.
Il movimento di cariche non è dovuto in questo caso alla presenza di un campo elettrico, non è necessario,
è necessaria solo una concentrazione non uniforme.
Un elettrone che si muove da sinistra verso destra porta a una corrente di diffusione che sarà diretta in
verso opposto (visto che il verso della corrente è sempre lo stesso del verso delle cariche positive).

Nasce quindi una corrente di diffusione, il cui valore risulta proporzionale in ogni punto alla derivata della
concentrazione n:

E sarà pari alla carica del portatore che si sposta * un coefficiente positivo detto costante di diffusione o
diffusività degli elettroni * il gradiente della concentrazione (lo spostamento è proporzionale al gradiente,
più ripida sarà la curva e più alta sarà la quantità di corrente che otteniamo).
Si noti che nell’esempio presentato dn/dx è negativa con la curva scelta, perché i portatori si spostano in
direzione opposta al gradiente (dalla zona di concentrazione più alta alla zona di concentrazione più bassa),
e che, come è logico aspettarsi, un flusso di elettroni in direzione positiva dà luogo a una corrente negativa.
Una analoga relazione sussiste nel caso sia presente una concentrazione non uniforme di lacune:

Con una concentrazione delle lacune come quella in figura, avremo che una lacuna si muoverà dalla zona di
concentrazione più alta ad una zona di concentrazione più bassa, in questo caso (essendo la lacuna una
carica positiva) la corrente di diffusione è diretta nello stesso verso dello spostamento delle cariche. Lo
spostamento è sempre nel verso opposto del gradiente quindi ho sempre un valore negativo.

La costante di diffusione degli elettroni è circa dello stesso ordine della mobilità. Esiste infatti la relazione di
Einstein:

Il rapporto tra le diffusività è dello stesso ordine del rapporto delle mobilità.

Quando calcolo la densità di corrente totale che fluisce in un semiconduttore devo considerare entrambe le
componenti. La prima componente è presente se ho un campo elettrico, la seconda è invece presente se ho
un gradiente di concentrazione.

Questa relazione dobbiamo scriverla per entrambi i portatori:

La corrente di drift è nello stesso verso del campo elettrico. Il meccanismo di spostamento delle cariche è
uguale per entrambe ma in un caso è una carica negativa che si muove e in un altro è una carica positiva.
In un caso ho il segno concorde al gradiente di concentrazione mentre nell’altro ho il segno discorde al
gradiente concentrazione.
Queste relazioni ci permettono di descrivere completamente il flusso di portatori in un semiconduttore.
Richiami di Elettrotecnica

La legge di ohm (microscopica) stabilisce la relazione tra la tensione v e la corrente.

La conduttanza lega la corrente alla tensione.


La resistenza può essere espressa in funzione dei parametri geometrici del conduttore, note la lunghezza, la
resistività e la sezione attraverso cui passa la corrente.

Stabilisce che se abbiamo un nodo, punto del circuito in cui confluiscono almeno due elementi circuitali, la
somma algebrica delle correnti che confluiscono in un nodo di un circuito è nulla in ogni istante.
Si tratta di una somma algebrica quindi le correnti hanno un proprio verso, il quale (tranne casi eccezionali)
viene scelto a priori. Si può identificare all’inizio il verso della corrente in un ramo, con i versi in figura:
Che equivale a dire che la somma delle correnti entranti è uguale alla somma delle correnti uscenti.

Un errore tipico si ha se una corrente viene negativa, deve essere portata avanti col proprio segno, andrà
nel verso opposto a quello stabilito all’inizio, non si deve cambiare il verso delle correnti.

Nel percorso chiuso si sceglie un verso di percorrenza che andremo a seguire.

Anche qui si può esprimere prendendo i generatori in dipendenti a sinistra e a destra le cadute di potenziali
sui rimanenti elementi del circuito.
Concetto che si può spiegare esprimendo la legge di Kirchhoff alle maglie:

Ricordare che gli elementi in serie sono quelli percorsi dalla stessa corrente.

Dato un circuito dati la tensione del generatore e i valori delle resistenze, sono in grado di esprimere il
valore della tensione ai capi delle resistenze?

Questa resistenza R1 + R2 viene anche detta resistenza vista dal generatore, Rv.
Nota la corrente posso calcolare direttamente quanto vale v1.

La caduta di tensione su R1 è data dalla tensione applicata al circuito diviso la somma delle resistenze e
moltiplicata la resistenza per la quale voglio calcolare la caduta di tensione.

Un partitore di tensione può essere applicato a un certo numero di resistenze collegate in serie (percorse
dalla stessa corrente). Il circuito può anche essere più complesso. Se le resistenze non fossero percorse
dalla stessa corrente non potrei applicare il partitore di tensione.
Potrebbe esserci anche un nodo intermedio, ma se i2 = 0 le due resistenze sono ancora in serie.
Utilizzeremo || per indicare il parallelo di due resistenze.

Per le resistenze in parallelo abbiamo il partitore di corrente.

Abbiamo quindi che una corrente partizionata in vari rami in parallelo in cui ho delle resistenze, la corrente
che scorre in un ramo si può esprimere come la corrente totale * la resistenza del ramo che non prendo in
considerazione / la resistenza totale.
E’ importante sottolineare lineare, se la rete non è lineare questo principio non può essere applicato.
Il nostro problema sarà che i componenti elettronici sono degli elementi non lineari e il principio di
sovrapposizione degli effetti a meno che il comportamento di queste componenti non venga linearizzato.
Un elemento circuitale è detto lineare quando la relazione i/v soddisfa la proprietà di omogeneità e la
proprietà additiva.
Nel valutare la risposta della rete ad un singolo generatore, occorre:
- disattivare gli altri generatori indipendenti (v=0 per i generatori di tensione e i=0 per i
generatori di corrente, aprendo il ramo dei generatori di corrente e cortocircuitando i rami
dei generatori di tensione)
- mantenere attivi i generatori dipendenti in quanto controllati da variabili (i,v) del circuito.
Se le variabili di controllo (i,v) sono nulle si può disattivarle, ma prima di analizzare il
circuito non si possono disattivare.
Se la rete è lineare possiamo anche utilizzare dei teoremi.

Il circuito lineare può essere composto sia da generatori dipendenti che indipendenti.
Questi due elementi circuitali riproducono esattamente il comportamento del circuito che vanno a
sostituire. I due vengono determinati come segue.
E’ detta anche tensione a vuoto ed è indicata come Voc (open circuit).

Senza generatori dipendenti la resistenza di Thevenin è la resistenza vista e basta applicare le regole di
combinazione delle resistenze.
Con generatori dipendenti non si può fare visto che non si conosce l’effetto del generatore dipendente sulle
resistenze. Si applica allora il metodo canonico, si prende un generatore di prova, risolvo il mio circuito coi
generatori dipendenti presenti e vado a calcolarmi la corrente ip, dalla quale potremo ottenere Rth.
Questo metodo può essere applicato anche senza generatori dipendenti ma si può semplificare al primo
caso.
La resistenza è la resistenza vista tra i due terminali, è calcolabile allo stesso modo di Thevenin. La corrente
è la corrente di cortocircuito isc (short circuit).

Posso rappresentarla in questi due modi equivalenti, e il legame tra i due è:

Se metto in cortocircuito a e b nell’equivalenti di Thevenin deve scorrere la stessa corrente.


Proprio da questa relazione posso ricavare un altro modo di calcolare la resistenza di Thevenin, calcolabile
come il rapporto tra la tensione di Thevenin e la corrente di Norton, la tensione a vuoto e la corrente di
cortocircuito.

Se abbiamo un circuito lineare a due terminali e si vuole calcolare la resistenza vista tra i due terminali ho
diversi modi, uno dei quali è determinare la tensione a vuoto e la corrente di cortocircuito. Il rapporto tra
queste due quantità mi dà il valore della resistenza vista.
Il metodo da utilizzare va scelto in funzione del caso e in funzione di quale risulta essere più conveniente.

Vediamo gli altri elementi passivi (oltre alla resistenza):


La capacità lega la carica (uguale e opposta) accumulata sui due elettrodi applicati al condensatore e la
caduta di potenziale ai suoi capi, da cui ricaviamo il legame tra tensione e corrente.

Se la tensione ai capi del condensatore è costante la corrente è nulla, mentre in presenza della variazione
temporale della tensione ai suoi capito ho una derivata non nulla.

In un circuito alimentato a corrente continua la tensione ai capi di un’induttanza è nulla e può essere
sostituita con un cortocircuito.
Si può dimostrare come segue.

Con questa tipologia di segni ho un legame positivo. Poiché gli elementi sono in parallelo dv/dt è uguale per
tutti. Il termine tra parentesi è quindi la nostra Ceq.

Se invece i condensatori sono in serie, a sommarsi sono gli inversi.


Dimostriamolo.

La carica da t0 e t su un condensatore è l’integrale della corrente in quelle estremità ma devo sommare


anche la tensione iniziale. Devo tenere conto della carica che avevo prima dell’istante t0, quindi la tensione
iniziale ai suoi capi, e la carica che ho dall’istante t0 a t.
La carica che avevo prima di t0 e la carica che ho accumulato da to a t.
Applichiamo Kirchhoff alle maglie:

Consideriamo qui che la corrente è uguale per tutti e quindi posso metterla in evidenza.
Devo includere la sommatoria di tutte le condizioni iniziali.
L’induttanza dell’induttore equivalente è data dalla soma delle induttanza dei vari induttori.
Dimostriamolo.

Essendo in serie la corrente che ci scorre è la stessa per tutti gli elementi.

Induttori sottoposti alla stessa caduta di potenziale posso indicarli come un unico induttore equivalente la
cui induttanza può essere espressa come indicato.
Dimostriamolo.

Se l’integrale viene svolto tra to e t dovrò andare a sommare la corrente iniziale.

La tensione è la stessa per tutti quindi posso esprimerlo come indicato.


Il resistore quando viene inserito in un circuito con un generatore di tensione costante (DC), circuito
alimentato con alimentazione costante, il comportamento della resistenza rimane inalterato.
Se lo inserisco in un circuito in cui ho una tensione/corrente variabile non ho limitazione. La tensione o la
corrente possono anche variare istantaneamente.

L’integrale di una corrente in un certo intervallo di tempo mi darà la carica accumulata nel condensatore in
quell’intervallo di tempo. Dobbiamo ricordarci di aggiungere le condizioni iniziali.
Ricordarsi che qui la serie è data dal prodotto delle capacità / la somma delle capacità ed è il parallelo ad
avere la somma delle capacità.
Il comportamento a regime, esauriti i transitori, il condensatore in un circuito alimentato da un generatore
di tensione costante si comporta come un circuito aperto.
Lo dimostro ricordandomi che i = c dv/dt, se la tensione è costante la derivata è nulla, la corrente che lo
attraversa è nulla e quindi il ramo è un ramo aperto su cui non passa corrente.
Se il condensatore è inserito in un circuito in cui ho tensioni/correnti variabili il condensatore è tale che la
tensione ai suoi capi non può variare istantaneamente. Se applichiamo al condensatore una variazione
istantanea questa non può avvenire, infatti il condensatore si dice che è inerziale alle variazioni della
tensione. Si dimostra sempre con i = C * dv/dt, se applichiamo una variazione istantanea della tensione, la
dv/dt diventa infinita e quindi la variazione può avvenire solo se può passare una corrente infinita, cosa
impossibile, e quindi la tensione non può cambiare istantaneamente.
Si sta parlando di differenza di potenziale ai capi delle due armature, se una delle due armature cerca di
cambiare istantaneamente la sua tensione l’altra armatura la segue allo stesso modo proprio per fare in
modo che la differenza di potenziale non cambi.

In alimentazione in DC, con generatore di tensione costante, e i transitori sono terminati l’induttore si
comporta come un cortocircuito. Abbiamo infatti che se sono finiti i transitori di/dt = 0 quindi la caduta di
potenziale ai capi dell’induttore è nulla e quindi si comporta come un cortocircuito. Se inserisco un
induttore in cui ho tensioni/correnti variabili, la quantità che non può cambiare è la corrente. L’induttore è
inerziale alle variazioni di corrente, se stava passando una corrente e cerchiamo di modificarla l’induttore
reagisce cercando di mantenere costante la corrente che lo attraversa.
Infatti se la corrente cambiasse istantaneamente di/dt -> inf. e dovrei avere una tensione infinita ai capi del
conduttore, cosa impossibile. Di conseguenza la corrente ai capi dell’induttore è costante.
Se devo stabilizzare le variazioni di tensione si usa il conduttore e dualmente l’induttore.
Transitorio di un condensatore
Vediamo il transitorio della tensione ai capi di un condensatore.
Ipotizzo che all’inizio il tasto sia aperto (condensatore non collegato al mio generatore) ma al momento t =
0 chiudo il tasto e il condensatore se è inizialmente scarico ha un potenziale v iniziale < vs, avremo che il
condensatore durante il transitorio si caricherà fino a quando raggiungo la situazione in cui il potenziale ai
capi del condensatore è proprio uguale a Vs, e quindi nel circuito non scorrerà più corrente(non essendoci
più differenza di potenziale applicata ai capi della resistenza, il transitorio si sarà esaurito).
Vogliamo trovare un modo per scrivere come varia la tensione ai capi del condensatore nel tempo.

Chiuso il tasto quello ch accade è che gli elementi sono tutti in serie e quindi scorrerà la stessa corrente (la
corrente sul circuito è quella che scorre ai capi di R).

Operando matematicamente posso portare al primo termine i valori dipendenti dalla tensione.

e vado poi a integrare.

si può anche scrivere tau per indicare la differenza con gli estremi.
Sfruttando la proprietà dei logaritmi:

RC viene solitamente indicato con la lettera greca tau, detta costante di tempo.
Com’è l’andamento della tensione ai capi di un condensatore?
Ipotizzando Vo, tensione iniziale, minore di Vs, il condensatore si caricherà da Vo al valore finale Vs, avremo
una carica esponenziale del nostro condensatore. La carica segue come curva un esponenziale crescente, si
carica come un esponenziale che ha una costante di tempo pari a:

Nel caso di circuito più complesso R è la resistenza vista.


Vs tensione finale perchè è la tensione che trovo ai capi del condensatore quando si esaurisce il transitorio,
nel circuito non scorre più corrente.
V0 tensione ai capi del condensatore quando inizia il transitorio.

L’espressione della tensione ai capi di un condensatore posso scriverla direttamente in questo modo
purchè conosco queste tre quantità.
Se si riescono a determinare queste tre quantità ispezionando il circuito posso direttamente scrivere
l’espressione senza ripetere tutti i calcoli.
Diodo
Il diodo a semiconduttore è un elemento con un comportamento fortemente non lineare, è un dispositivo
che consente il passaggio della corrente solo in un verso.
La configurazione classica che si può avere è sostanzialmente costituita dalla giunzione P/N.
Il diodo a silicio, nella versione più classica, è costituito dall’unione di un silicio drogato di tipo P e un silicio
drogato di tipo N.
Al silicio drogato di tipo P viene aggiunto poi un contatto metallico con l’elettrodo esterno e l’elettrodo
collegato alla parte di silicio di tipo P viene chiamato anodo, viceversa catodo per la parte di silicio di tipo N.
E’ quindi un dispositivo a due terminali, anodo e catodo con l’anodo collegato alla zona di tipo P e catodo
collegato alla zona di tipo N.

Questo non è l’unico metodo per realizzare un diodo a silicio, la giunzione può essere anche costituita da
una giunzione metallo/semiconduttore ma questa è la più classica.
Nella realtà il diodo integrato ha una struttura planare però per studiarne il comportamento prendiamo
questo esempio idealizzato in cui ipotizziamo di aver preso un blocco di silicio di tipo P e N e li abbiamo
uniti insieme, e poi abbiamo realizzato i due contatti.

La giunzione pn a circuito aperto


Facciamo per adesso l’ipotesi di non aver applicato nessun generatore di tensione ai suoi due elettrodi.
In questa situazione, il dispositivo non ha passaggio di corrente ai suoi capi, i = 0 (corrente che passa tra
anodo e catodo) e v = 0. E’ un elemento sostanzialmente aperto in equilibrio termodinamico con l’ambiente
in cui è inserito, a cui non è applicata nessun tipo di sollecitazione.
In queste condizioni abbiamo quindi i = 0.
Facciamo delle ipotesi, supponiamo che il drogaggio nella zona di tipo P sia costituito da una
concentrazione di ioni accettori pari a:

Quindi supponiamo che la concentrazione delle lacune nella zona di tipo P sia uguale alla concentrazione
degli atomi accettori (tutti gli atomi accettori sono ionizzati). La concentrazione di minoritari è quindi
indicata sopra, secondo la legge di azione di massa (siamo in una situazione di equilibrio quindi possiamo
usarla), dove abbiamo preso ni^2 = 10^20 supponendo di essere in temperatura ambiente.
Nella zona di tipo N prendiamo una concentrazione di elettroni di questo tipo:

Supponiamo di essere in grado di generare inizialmente i due materiali separati con questi drogaggi e poi
andiamo ad unirli. Andiamo a mettere insieme una zona fortemente drogata p e una zona fortemente
drogata n, in un semiconduttore se ho una disuguaglianza nella concentrazione sarà presente il fenomeno
di diffusione.
Ci aspettiamo una corrente di diffusione per le lacune sarà uguale a:

Abbiamo il gradiente col segno meno perché sappiamo che le lacune si muoveranno dalla zona di più alta
concentrazione a quella di più bassa.
Per quanto riguarda gli elettroni avrò un gradiente nella situazione opposta, gli elettroni si muoveranno da
destra verso sinistra:

Ciò da origine a una corrente di diffusione:

Si nota che sia Jp che Jn sono entrambe dirette da P verso N:

Dopo che ho unito i semiconduttori avrò il meccanismo di diffusione dovuto al gradiente di concentrazione,
ma questo dispositivo se ho la presenza di queste due sole correnti, essendo entrambe dello stesso verso
presenta una corrente totale:

Ho questo risultato, che però è assurdo. Questo perché se ho un elemento a terminali aperti privo di
qualunque sollecitazione in equilibrio termodinamico la corrente deve essere nulla.
Se avvenisse solo il processo di diffusione, che avviene sicuramente perchè ho messo due materiali con
gradiente di concentrazione diverso l’uno dall’altro, avrei un risultato assurdo.
L’unica possibilità è che oltre a una corrente di diffusione si generi all’interno del dispositivo anche una
corrente di drift, gli unici due meccanismi per lo spostamento di carica nel semiconduttore sono infatti
questi.
Ma il drift è uno spostamento di cariche dovuto alla presenza di un campo elettrico.
Sto ipotizzando che si possa avere un campo elettrico all’interno del materiale in assenza di una
polarizzazione esterna.
Dovrò avere una componente di spostamento di cariche e per ciascun portatore nella situazione di
equilibrio termodinamico, la componente di diffusione e di drift devono essere in verso uguale e opposte
così da compensarsi completamente tra di loro.
Come può esserci un campo elettrico non nullo nel semiconduttore in assenza di polarizzazione esterna?
Prendiamo un materiale di tipo P e un materiale di tipo N inizialmente separati.

Nel materiale di tipo P oltre a tutti gli atomi di silicio che costituiscono il mio materiale ho anche la presenza
degli atomi accettori. Questi atomi accettori sono delle cariche fisse, a temperatura ambiente hanno ceduto
la loro lacuna.
La lacuna è il portatore che a temperatura ambiente si è generata per via del fatto che l’accettore ha
accettato l’elettrone e le lacune sono invece delle carica mobile. La alcuna si può muovere sia per un
gradiente di concentrazione sia per il campo elettrico presente.
Il materiale è globalmente neutro perché anche se la lacuna è mobile comunque è contenuta all’interno del
materiale, la somma delle cariche fisse dovute a ioni accettori e la somma delle lacune si compensano, sono
esattamente uguale e opposte.
La concentrazione del materiale p è globalmente neutro, dovuto al fatto che per ogni accettore ho la
corrispondente lacuna. (Qui è disegnata vicino al corrispondente atomo accettore ma è in realtà libera di
muoversi nel materiale

Nella zona N ho la situazione duale, ho gli atomi donatori che si sono ionizzati, che sono cariche fisse, non si
può muovere dalla posizione in cui si trova, ha sostituito l’atomo di silicio ed è fisso in quella posizione e ha
donato un elettrone che è diventato una carica mobile che si può muovere rispetto alla propria posizione
per effetto di un campo elettrico o per effetto di un gradiente di concentrazione.
Anche in questo caso il semiconduttore di tipo N globalmente neutro perchè il numero di ioni donatori è
uguale al numero di elettroni liberi (trascurando gli elettroni liberi ma anche prima le lacune generati
termicamente).
I due semiconduttori sono globalmente neutri.
Nel momento in cui li vado a unire:

Gli elettroni per diffusione andranno dalla zona N alla zona P, mentre le lacune andranno dalla zona P alla
zona N per effetto del gradiente di concentrazione.
Poichè la concentrazione di elettroni dal lato n è molto più grande di quella dal lato p, si avrà una diffusione
di elettroni attraverso la giunzione dalla regione n a quella p. In modo simile, le lacune diffonderanno dalla
regione p a quella n. Queste due componenti danno luogo a una corrente di diffusione ID che va dalla zona
p alla zona n.
La lacuna dalla zona P entrerà nell’interno della zona N, materiale in cui si ha un elevatissima
concentrazione di elettroni. Questa lacuna che entra in questo materiale in cui ho una elevatissima
concentrazione di elettroni ha un elevatissima probabilità di ricombinarsi.
Si ricombina con un elettrone e scompare. Lo stesso destino vale per l’elettrone (soprattutto quelli che
stanno al confine della zona di unione), che viene iniettato in una zona in cui ho un numero elevato di
lacune e ha un’elevatissima probabilità di ricombinarsi, si ricombina con una lacuna.
Per effetto della diffusione quindi nel nostro materiale si viene a verificare questa situazione.
Nella zona di confine avremo una zona di larghezza W in cui non ho più cariche libere mobili.
Considerando la parte nella zona P, i portatori in questa zona non sono più presenti perché o sono migrati
nella zona N o si sono ricombinati con gli elettroni che sono arrivati nella zona N.
Non ho più elettroni liberi, o sono migrati nella zona P o si sono ricombinati con delle lacune.
Nella zona di giunzione si viene a creare una zona con una scarsa concentrazione di cariche libere.
In prima approssimazione possiamo chiamare questa zona, zona di svuotamento, in quanto si fa l’ipotesi di
assenza di cariche mobili.

Nella realtà non è così in quanto non è completamente svuotata la concentrazione, ma per studiare il
comportamento della giunzione questa è un’ipotesi che possiamo fare.
Gli elettroni andati nella zona P hanno lasciato dietro di sé il donatore ionizzato, i quali sono rimasti privi
della loro carica mobile e lo stesso vale per la zona P. Questa zona non è più una zona neutra.
Se guardo la zona P che fa parte della zona di svuotamento non è più neutra ma ha un eccesso di carica
negativa, le lacune che avevo qui sono andate a scomparire (alcune diffuse, altre ricombinate con gli
elettroni arrivati) e in questa zona non ho la carica positiva che bilanciava la carica negativa esistente.
La situazione che si presenta è la seguente:

La densità di carica all’interno del materiale partendo dalla zona p, avrà una situazione come segue.
Dalla zona P fino a -xp, prendendo l’origine degli assi in corrispondenza della giunzione, avrò una densità di
carica nulla, perché il materiale è neutro. Questo perché al suo interno ho un numero di cariche positive
uguale al numero di cariche negative.
In vicinanza della giunzione ho perso le cariche mobili e quindi nel materiale P vicino alla giunzione ho una
densità di carica negativa, il cui valore sarà dato, se la carica è uniforme, la densità sarà data da -q * Na che
moltiplicato poi per xp e per la sezione darebbe la carica complessiva vicino alla giunzione.
Nella zona N vicino alla giunzione ho un eccesso di carica positiva, fissa, non si può muovere, che si ha da 0
fino a XN, di valore q * ND (perchè ND è la concentrazione di drogaggio) e poi 0 all’esterno.
Quindi ho due materiali che si uniscono in corrispondenza di x = 0 e ho una quantità di carica sul lato destro
e sinistro che sono uguali e opposte. La situazione di equilibrio che si viene a creare è che :

La quantità di carica positiva complessiva su lato n sarà data da:

Dove A sarebbe la sezione del materiale.


La carica complessiva negativa che ho sul lato P sarà invece data da:

Nella situazione di equilibrio che si viene a determinare quello che accade è che la quantità di carica
complessiva che ho tra Q+ e Q- risulta essere uguale.
In situazione di equilibrio:

dove xp e xn sono diverse dovuto al fatto che ND != NA.


La situazione in cui ho una carica nel materiale uguale e opposta ai due estremi è quella simile a un
condensatore, ho quindi anche la presenza di un campo elettrico diretto dalle cariche positive alle cariche
negative, cosa che avviene in un condensatore.

La sua espressione si può determinare, perché sappiamo che la derivata del campo elettrico è data dal
rapporto tra la densità di carica e costante dielettrica
Se facciamo l’ipotesi semplificativa di considerare la densità di carica completamente nulla nelle zone
neutre, quindi campo elettrico nullo, dopodichè avrò la derivata negativa (carica negativa) quindi campo
elettrico decrescente fino ad arrivare al massimo (in presenza della giunzione metallurgica) dopodichè avrò
densità positiva quindi derivata positiva fino a xn per poi diventare nulla.

Ho individuato il fatto che il processo di diffusione a cui è poi collegato poi un processo di ricombinazione
quando avviene all’interno di un semiconduttore da una zona P alla zona N mi va a determinare la nascita di
un campo elettrico interno, all’interno della zona di svuotamento.
Ho quindi un campo elettrico E(x) != 0 negativo, diretto nel verso delle x negative, dagli ioni positivi verso gli
ioni negativi.
Vediamo l’effetto del campo elettrico, il suo verso è diretto nel verso delle x negative.

Le lacune per diffusione vogliono diffondere dalla zona P alla zona N, ma man mano che si diffondono e c’è
il processo di ricombinazione lasciano dietro di se degli ioni accettori negativi non più ricompensati e si
genera un campo elettrico che ha un effetto sulle lacune, è tale da respingere le lacune che vogliono
cercare di entrare nella zona N, visto che il campo elettrico è diretto nella zona P.
In conseguenza delle cariche fisse della zona di svuotamento si viene a stabilire un campo elettrico
attraverso la zona di svuotamento stessa, con il lato n positivo rispetto al lato p.
Tale campo si oppone a un’ulteriore diffusione di portatori tra la regione p e quella n.
Se ho una lacuna che vuole continuare il processo di diffusione avrò in realtà il campo elettrico che tende a
impedirgli di proseguire nel loro percorso. Stessa cosa vale per gli elettroni che si muovono in direzione
opposta al campo elettrico, un elettrone che per diffusione si muove da N verso P dopo un certo tempo
trova un campo elettrico che lo respinge.
E questo campo elettrico che si viene a generare è quello tale per cui la corrente dovuta alla diffusione
viene esattamente controbilanciata dalla corrente dovuta al campo elettrico. L’effetto del campo elettrico è
quello di andare ad annullare l’effetto dovuto alla corrente di diffusione.
Se abbiamo un campo elettrico abbiamo anche quindi una differenza di potenziale.
Se ho un campo elettrico negativo con queste due pendenze, si viene a creare una differenza di potenziale
elettrostatico ai capi della mia zona di svuotamento, dove il potenziale nella zona P è maggiore del
potenziale nella zona N.

In una situazione di equilibrio ai capi della mi giunzione si viene a generare una differenza di potenziale
esattamente pari a un potenziale V0 che vedremo a breve.
Il processo di diffusione dei portatori da P a N non può procedere all’infinito, altrimenti avrei un materiale
uniformemente drogato, e non può farlo anche perché porterebbe continuamente a una corrente.
In realtà questo processo viene controbilanciato dalla corrente di drift dovuta a un campo elettrico eh si
viene a generare all’interno del materiale, che si presenta nella zona di svuotamento dovuto alle cariche
non più compensate che danno origine a una differenza di potenziale elettrostatico diversa da 0 che è più
basso nella zona P e più altro nella zona N.
Il che vuol dire che lacune he vogliono diffondere dalla zona P alla zona N devono superare una barriera di
energia potenziale. Se disegno l’energia potenziale per le lacune, questa sarà data dal prodotto di q * fi(x)
(con +q perché guardo quella delle lacune):

L’energia potenziale delle lacune è più alto nella zona N che non nella zona P, possiamo interpretare questo
grafico come segue. Se una lacuna vuole diffondere dalla zona P alla zona N lo potrà fare solo se ha un
energia sufficiente a vincere la repulsione del campo elettrico formato nella zona si vuotamento.
Le lacune che potranno andare a diffondere la zona N per diffusione sono solo quelle che hanno un energia
sufficiente da superare questa barriera. Se non è sufficiente viene rimbalzata indietro.

La presenza di un campo elettrico fa si che esista un barriera di energia potenziale per cui non tutte le
lacuna possono diffondere attraverso la mia giunzione ma lo faranno solo quelle con un’energia superiore a
questa barriera.
Le lacune che hanno un energia maggiore potranno sorpassarla ed eventualmente poi ricombinarsi.
Lo steso per gli elettroni, dove però abbiamo una situazione inversa, visto che l’energia sarà data da -q *
fi(x).

L’elettrone con energia inferiore alla barriera non riesce a superarla ma gli elettroni con un’energia
maggiore della barriera potranno diffondersi nel materiale P. La presenza di una barriera di energia
potenziale è tale da avere che questo campo elettrico favorisce il passaggio degli elettroni da P verso N ma
non da N verso P. Gli elettroni che vogliono diffondere potranno farlo solo se riescono a superare la
barriera di energia potenziale.
La caduta di tensione sulla zona di svuotamento agisce come una barriera di potenziale che deve essere
superata dagli elettroni per diffondere nella zona p e dalle lacune per raggiungere la regione n. Questa può
essere vista come una condizione di equilibrio dinamico, nella quale la corrente di diffusione ID è
compensata da una corrente uguale e opposta di drift IS, dovuta al campo elettrico creato dallo squilibrio di
carica.
Si viene a determinare una situazione di equilibrio che porta alla presenza di un potenziale di contatto V0 ai
capi della mia zona di svuotamento con un valore tale da avere soddisfatta la seguente relazione.

Per gli elettroni la somma della corrente di drift (diretta nello stesso verso del campo elettrico) e della
corrente di diffusione (in direzione opposta) si bilanciano completamente tra di loro.
Per le lacune invece, la corrente di drift sarà diretta verso E mentre la corrente di diffusione nell’altro verso.
Il bilanciamento deve venire fuori per ciascuna componente di ciascun portatore, devono far 0 la somma di
ciascuna e non solo la somma di questi 4 termini o avrei un accumulo di carica mobile (non è una situazione
di equilibrio). Jn e Jp sono separatamente uguale a 0. Sicuramente avremo così Jtot = 0 e andando a
impostare tutte le equazioni si trova che questo potenziale di built-in ha un’espressione di questo tipo:
pari alla tensione termica (kT/q) per il logaritmo naturale della concentrazione di atomi accettori per la
concentrazione di atomi donatori diviso la concentrazione di portatori intrinseci.
In condizioni di circuito aperto la caduta di potenziale attraverso la giunzione, detta potenziale di contatto,
può essere espressa in funzione delle concentrazioni di droganti nella zona p (NA) e n (ND), della
concentrazione intrinseca di portatori (ni) e della temperatura T:
In situazione di regime si viene a creare nel materiale una zona di svuotamento dove è presente un campo
elettrico ai capi del quale ho una differenza di potenziale di questo tipo.
Questa è la situazione che si viene a generare in una situazione di equilibrio.
Siamo riusciti a dimostrare che la corrente è nulla ai capi del materiale.
In condizioni di equilibrio non sono nulle entrambe le componenti Jdrift e Jdiff ma sono uguali e opposte.
La corrente di diffusione sarà data dai soli portatori che hanno un energia termica sufficiente a superare la
barriera di energia potenziale, ma sarà diversa da 0 anche se sarà sicuramente piccola, che è compensata
dalla corrente di drift data dagli elettroni che dalla zona P possono andare nella zona N.
Esistono anche infatti i minoritari, gli elettroni generati termicamente (ni^2/(Na o Nd)), e la corrente di
diffusione sarà dovuta ai maggioritari che diffondono mentre la corrente di drift sarà dovuta ai minoritari.
Una lacuna che si trova nella zona N può tranquillamente andare da destra verso sinistra perché trova un
campo elettrico che la agevola. Lo stesso per gli elettroni che si trovano nella zona P.
Ecco appunto che la corrente di drift residua è legata ai minoritari e quella di diffusione è invece legata i
maggioritari. Ciò giustifica che la corrente che scorre nel dispositivo all’equilibrio è nulla.
A questo punto il potenziale potrebbe essere diverso da 0, infatti all’interno del mio materiale ho una
differenza di potenziale V0, ma è misurabile all’esterno?
No, non è una quantità misurabile all’esterno del materiale. E’ un potenziale di equilibrio e se provo a
misurarlo ottengo come risultato 0, perché nel momento in cui facciamo la misura se prendiamo anodo e
catodo, dobbiamo andare a fare una giunzione tra il metallo col semiconduttore di tipo P e N.
Ho quindi sostanzialmente tre giunzioni.
Ho altre due giunzioni ai cui capi (giunzione del metallo con il semiconduttore) si vengono a generare anche
in questo caso altri due potenziali di contatto, e quindi accade che ho 3 differenze di potenziale.
E la condizione di equilibrio è tale che la somma algebrica delle 3 differenze di potenziale è uguale a 0.
Il potenziale di built-in non è misurabile dall’esterno perché se si fa una misura si vanno a generare altri
potenziali di contatto e la somma algebrica sarà nulla.
La tensione misurata tra i terminali è comunque nulla perchè V0 risulta compensata dai potenziali di
contatto metallo-semiconduttore tra le zone p ed n e gli elettrodi esterni.

Questa è la situazione in una giunzione P/N aperta in equilibrio termodinamico priva di alcun tipo di
sollecitazione, in assenza di una polarizzazione esterna.

La giunzione p − n in polarizzazione inversa e diretta


Consideriamo dapprima il caso in cui alla giunzione sia connesso un generatore di tensione continua con il
terminale positivo collegato alla regione P.

Vediamo cosa accade al mio potenziale elettrostatico nel caso in cui applico una differenza di potenziale ai
capi del mio materiale.
Trascuriamo le cadute di potenziale che si possono avere all’interno dell’elettrodo, nella giunzione tra
l’elettrodo e il materiale e le cadute di potenziale nelle zone neutre.
Fatte queste ipotesi semplificative se vado ad applicare un generatore di tensione agli elettrodi esterni,
anodo e catodo, questa differenza di potenziale me la ritrovo esattamente ai miei capi della mia zona di
svuotamento.
In situazione di equilibrio siamo nel caso VD = 0.
L’andamento del potenziale elettrostatico, se applico un potenziale positivo di P rispetto a N è quello
tracciato in figura, prendendo come riferimento il potenziale nella zona P.
Abbiamo quindi una polarizzazione positiva e siamo nel caso VD > 0.
La differenza di potenziale tra la zona P e N diminuisce, o si tiene fermo N e si alza P o si tiene fermo P e si
abbassa N non cambia nulla, l’importante è vedere cosa accade alla differenza di potenziale.
Nel caso di polarizzazione positiva la differenza di potenziali ai capi della mia zona di svuotamento
diminuisce rispetto all’equilibrio che si era generato.
La situazione opposta accade nel caso in cui vado ad applicare un generatore Vd < 0. La tensione più alta
vado ad applicarla alla zona N e la tensione più bassa alla zona P.
Trascurando le solite cadute di potenziale, ai capi della mia zona di svuotamento osserverà un incremento
della mia differenza di potenziale, la differenza di potenziale aumenta rispetto alla condizione iniziale.
L’effetto di applicare un generatore ai capi del mio dispositivo è quello di andare a modificare la barriera di
energia potenziale che esiste tra la zona P e la zona N, quindi modificare il potenziale elettrostatico.
Una polarizzazione positiva (dove intendiamo come terminale di riferimento sempre l’Anodo, quindi la zona
P) mi va a far diminuire la caduta di potenziale ai capi della giunzione e quindi la barriera di potenziale
mentre una polarizzazione negativa (una polarizzazione dove la tensione sul catodo è più grande rispetto a
quella sull’anodo) mi aumenta la barriera di potenziale rispetto al caso dell’equilibrio che mi si era venuto a
generare. L’effetto è quindi la modifica dell’altezza della barriera di potenziale che i portatori vedono.
Vediamo cosa accade alla larghezza della zona di svuotamento.
Se la zona di svuotamento la consideriamo come un condensatore che mi deve dare quella carica Q+ = Q-
che moltiplicata per la capacità mi dà la caduta V0 che si è venuta a generare, se mi deve diminuire la
differenza di potenziale, quando applico una tensione positiva, e quindi ho bisogno di un potenziale più
piccolo nel mio condensatore diminuisce lo spessore della zona di svuotamento.
Il campo elettrico diventa più piccolo e quindi avrò bisogno di un numero inferiore di cariche esposte per
generare il campo elettrico (xn e xp diventano più piccole).
Se ho una polarizzazione negativa ho un campo elettrico maggiore, una differenza di potenziale maggiore,
ho bisogno di più cariche e quindi la larghezza della zona di svuotamento tende ad aumentare.

Esiste una formula che lega lo spessore zona svuotamento al drogaggio, al valore di V0 di equilibrio e al
valore di VD:

La larghezza di svuotamento si allarga in polarizzazione inversa e invece diminuisce in polarizzazione


diretta.

Vediamo l’effetto di abbassare la barriera (in polarizzazione positiva) alla corrente di diffusione e alla
corrente di drift.
1) Per quanto riguarda la corrente di diffusione abbiamo che i portatori maggioritari, per esempio le
lacune, vogliono per diffusione andare da P verso N ma non tutte ce la possono fare, possono
farcela solo quelle che hanno energia sufficiente a superare la barriera. Se vado ad abbassare la
barriera un maggior numero di lacune avranno un’energia sufficiente a superare la barriera per
poter diffondere.
Sicuramente la corrente di diffusione aumenta visto che la barriera mi portava alla limitazione della
corrente di diffusione e la abbasso.
Dal momento che la distribuzione del numero di portatori in funzione dell’energia è di tipo
esponenziale, se abbasso l’energia la quantità di portatori che hanno un energia superiore ha un
incremento esponenziale, la corrente di diffusione aumenta in modo esponenziale.
2) Considerando invece la corrente di drift, questa non è influenzata dall’altezza della barriera, rimane
circa costante. Si potrebbe pensare che il potenziale diminuisce/aumenta quindi dovrebbe
diminuire/aumentare. La corrente di drift dipende infatti dal campo elettrico, ma se aumenta il
campo elettrico aumenta anche la corrente di drift ma questo è vero se ho a disposizione un
numero molto elevato di cariche.
In realtà la corrente di giunzione P/N è piccola perchè legata alla concentrazione dei minoritari, ho
poche cariche che possono dare origine a questa corrente di drift.
Tutte le cariche presenti vengono già di fatte trasportate al campo elettrico.
La limitazione della corrente di drift non è tanto dovuta al campo elettrico ma è dovuta al numero
di cariche per unità di tempo che possono attraversare la giunzione trasportate dal campo elettrico,
che sono poche e sono solo quelle minoritarie.
Sono solo quelle generate termicamente generate nella zona di giunzione (in cui c’è E != 0) per
poter subire effetto del campo elettrico e dare originale alla corrente di drift. Il fatto che campo
elettrico diminuisca ha un effetto del tutto trascurabile sull’entità della corrente di drift.
La corrente di drift non è limitata dal campo elettrico, è piccola ed è dovuta al fatto che ho poche
cariche e già tutte quelle che ci sono vengono portate di là dal campo elettrico e quindi che il
campo elettrico aumenta o diminuisca non da alcun effetto.

La corrente di drift aumenta in modo esponenziale e la corrente di drift rimane all’incirca costante, come
conseguenza avrò che la corrente totale aumenta in modo esponenziale ed è nel verso della corrente di
diffusione.
In polarizzazione positiva (VD > 0) ho una corrente JT nel verso della corrente di diffusione, da P verso N.

Quando siamo in polarizzazione negativa (VD < 0) abbiamo che la barriera aumenta e per quanto riguarda
la corrente:
1) la corrente di diffusione diminuisce in modo esponenziale.
Più è grossa la barriera minori sono i portatori con un energia tale da superare questa barriera.
2) Per quanto riguarda invece la corrente di drift invece, questa rimane
circa costante per lo stesso ragionamento fatto prima.
Abbasso la corrente di diffusione in modo esponenziale e quella di drift rimane all’incirca costante, segue
quindi che la corrente totale è negativa, piccola (perché è solo quella dovuta ai minoritari) e circa costante.
Non dipende dal campi elettrico, non dipende da Vd, non è un problema di portatori ma della quantità di
cariche risulta essere circa costante (essendo quelle generate termicamente) e che trovano un campo
elettrico che le può portare nella zona opposta.
Questo è un comportamento non simmetrico, non si comporta ugualmente per tensioni positive e
negative. Il modello analitico che viene utilizzato è il seguente.
Dove la corrente che scorre da anodo verso catodo nel dispositivo è uguale alla corrente inversa di
saturazione (corrente che scorre nel dispositivo per tensioni negative (è la corrente di drift) per
l’esponenziale del potenziale applicato alla giunzione diviso un fattore di idealità * Vt.

La corrente inversa di saturazione è sostanzialmente la corrente dovuta ai minoritari che riescono ad


attraversare la giunzione.
Quando Vd è molto negativa il temine esponenziale si esaurisce, è molto più piccolo di 1 e quindi Id = - Is e i
valori tipici sono non più grandi del nano Ampere, vanno da 10^-18 a 10^-9 A.
I valori della corrente sono di questo livello, dovuti esclusivamente ai minoritari.

Il fattore varia da 1 a 2, 1 per i diodi integrati e 2 per i diodi discreti, molte volte per semplicità lo
considereremo = 1.
Questa equazione esprime l’andamento della corrente in un diodo in funzione della tensione ai suoi capi
con le polarità viste prima. Vd è la tensione anodo catodo e Id è la tensione che va da anodo verso catodo.
La curva ha un andamento di questo tipo:

Abbiamo un comportamento rettificante, un dispositivo che fa passare la corrente solo in un verso.


Da notare che la curva passa per I= 0 e V = 0. Infatti exp(0)=1 e quindi passa per l’origine.
In polarizzazione inversa (con tensione negativa) Id è circa uguale a -Is e quindi in questa scala coincide con
l’asse dell’ordinate perché minore di 10 -9 A, è quindi identicamente nulla in questa scala.
Per polarizzazioni positive (dirette) la corrente è positiva e ha un aumento esponenziale e si ottiene una
curva di questo tipo.
Per VD positiva ho una corrente che aumenta esponenzialmente con la tensione stessa.
La giunzione P/N ha un comportamento fortemente non lineare, agevola il passaggio della corrente quando
V > 0 e si ha un comportamento non trascurabile quando V > 0.6-0.8V, a seconda del tipo del dispositivo.
Mentre quando il diodo è polarizzato in inversa la corrente che si misura e che può attraversare il diodo è
una corrente molto piccola, dell’ordine inferiore al nano Ampere che in molte applicazioni possiamo
considerare identicamente nulla. Ecco perché il comportamento è fortemente non lineare.
Ricordiamo che stiamo al momento trattando la giunzione P/N con la polarità che viene scelta come segue:

In inversa I è circa uguale a -Is, è una corrente negativa che in questo grafico possiamo prendere pressochè
uguale a 0. Per polarizzazione diretta invece:

Nel caso di polarizzazione inversa: la tensione fornita dal generatore esterno tenderebbe a far passare una
corrente dalla regione n a quella p, quindi a far fluire lacune dalla regione n a quella p e elettroni dalla
regione p a quella n. Nonostante che l’andamento del profilo di potenziale sia favorevole a questi
spostamenti, dobbiamo ricordare che nella regione n sono disponibili pochissime lacune e lo stesso
discorso vale per gli elettroni nella zona p. La corrente che scorre e quindi estremamente ridotta, perchè
alimentata dal flusso di portatori minoritari. Tale corrente non è inoltre significativamente dipendente dalla
tensione applicata, poichè tutti i portatori minoritari che si trovano in prossimità della zona di svuotamento
vengono comunque trascinati via dal campo elettrico favorevole.
Nella condizione di polarizzazione diretta il terminale positivo del generatore esterno è connesso alla
regione p: la tensione applicata tende quindi a far circolare una corrente dalla zona p a quella n. Si tratta
dunque di una corrente di lacune che va dalla zona p a quella n e di una corrente di elettroni che fluisce
dalla zona n a quella p. Si hanno quindi flussi di portatori maggioritari, che sono disponibili in grande
quantità, ma questa volta i flussi avvengono in contrasto con l’andamento della barriera di potenziale.
Se la tensione applicata `e molto piccola, la corrente sarà anche in questo caso trascurabile, perchè i
portatori non riescono a superare l’ostacolo rappresentato dalla barriera stessa, ma al crescere della
tensione applicata un numero esponenzialmente crescente di portatori riuscirà a superare la barriera e che
la corrente aumenterà in modo esponenziale con la tensione applicata.
Nel caso di polarizzazione inversa molto maggiore in modulo di VT il termine esponenziale è trascurabile
rispetto all’unità e quindi I è circa uguale a −Is, indipendentemente dalla tensione applicata.
Is è la corrente di saturazione inversa, cioè quella che scorre in polarizzazione inversa.
Possiamo distinguere un certo numero di zone.

Quando n = 1 e sono in polarizzazione diretta e VD >= +4Vt, a temperatura ambiente abbiamo:

Il termine esponenziale in polarizzazione diretta predomina sull’unità. Questo è tanto più vero quando VD >
VT. Invece, in polarizzazione inversa, per VD <= -4Vt:

L’esponenziale diventa trascurabile rispetto all’unità e Id diventa circa pari all’opposto della corrente
inversa di saturazione (inversa perché va in direzione inversa rispetto alle polarità della corrente del diodo e
di saturazione perché satura un valore all’incirca costante, perché dipende poco dalla polarizzazione
applicata). Invece:

Queste sono le tre zone di funzionamento individuate e che costituiscono il range di normale
funzionamento della giunzione P/N.
Se mi sposto al di fuori dei range (tensione molto negativa o molto positiva), per esempio se applico
tensioni molto negative e molto elevate, nei diodi classici nell’ordine di -100V, -150V, -200V, la corrente che
valeva -Is fino ad arrivare ad una tensione particolare rimane stabile e poi la corrente inversa aumenta in
modo repentino e rimane all’incirca costante.
Questo è detto fenomeno del breakdown. Non è un fenomeno irreversibile, se avviene non è detto che il
dispositivo si rompa, la rottura può essere causata dal fatto che sta correndo una corrente molto elevata e il
dispositivo può bruciarsi. Se limito la corrente inversa che sta scorrendo (aumentando la tensione) non è un
fenomeno irreversibile. Vediamo le cause che portano a questo fenomeno.
La corrente inversa di saturazione è piccola perchè ho pochi portatori a disposizione, sono solo i minoritari.
Un aumento della corrente, che determina il breakdown, avviene difronte a due fenomeni che portano a un
aumento della concentrazione dei minoritari, che non sono solo più generati termicamente ma
intervengono 2 meccanismi che ne portano a generare una concentrazione maggiore.
Il primo è il fenomeno del Breakdown Zener, i portatori minoritari aggiuntivi che mi danno origine a questa
corrente inversa di entità non trascurabile sono legati al fatto che nella zona di svuotamento si genera un
campo elettrico sufficientemente elevato da causare la rottura di alcuni legami covalenti, si ha quindi una
generazione di coppie elettroni/lacune nella zona di vuotamento.
Il breakdown Zener viene descritto come la conseguenza della rottura dei legami covalenti nella zona di
svuotamento causata dall’elevato campo elettrico. La rottura di tali legami dà luogo a un gran numero di
portatori liberi. Una trattazione più dettagliata richiederebbe informazioni derivanti dalla meccanica
quantistica. Il campo elettrico è quindi così elevato da portare alla rottura di alcuni legami covalenti.
L’altro meccanismo è quello del Breakdown a valanga, che è sempre legato all’entità del campo elettrico
nella zona di svuotamento. La maggior parte del campo si va a concentrare infatti in questa zona e quando
applico una tensione inversa, la zona di svuotamento si allarga.
Il breakdown a valanga si verifica invece quando il campo elettrico nella zona di svuotamento può
accelerare i portatori minoritari che attraversano la zona stessa fino a una velocità tale da rompere i legami
covalenti degli atomi con cui collidono.
I portatori così liberati vengono a loro volta accelerati e causano ulteriori rotture di legami. Questo
processo si sviluppa quindi a valanga, con un aumento dei portatori.
Se nel caso Zener il campo elettrico era in grado di rompere legami covalenti, qui ho che i portatori
minoritari generati termicamente che stanno attraversando la giunzione all’interno della zona di
svuotamento vengono accelerati e acquisiscono una energia cosi elevata che nel loro cammino quando
vanno a urtare contro gli atomi di silicio nel reticolo cristallino sono in grado, nell’urto, di cedere un’energia
sufficiente da creare una coppia elettrone/lacuna per urto.
Si verifica quindi quando il campo elettrico nella zona di svuotamento può accelerare i portatori minoritari
che attraversano la zona stessa fino a una velocità tale da rompere i legami covalenti degli atomi con cui
collidono.
Gli elettroni nel loro movimento prevedono un cammino costituito da una continua sequenza di urti e
quando cedono energia all’atomo nel breakdown a valanga, questa energia è tale da poter rompere il
legame (è un energia di tipo termico).
Se consideriamo un elettrone che entra nella zona di svuotamento, viene accelerato e subisce un urto, in
questo urto se nel tragitto ha acquisito un energia elevata crea nell’urto una coppia elettrone/lacuna e
quindi dopo l’urto abbiamo l’elettrone medesimo e una coppia elettrone/lacuna, avremo 3 cariche mobili.
Queste tre cariche mobili si muoveranno esse stesse per effetto del campo elettrico.
La particella iniziale subisce un altro urto che crea altra coppia, ma l’altro elettrone segue la stessa sorte.
La lacuna generata al passo precedente supponiamo non abbia generato nessun urto.
Al passo 3 abbiamo ulteriori urti e anche la lacuna ha fornito un contribuito tramite un urto. Si innesca un
fenomeno a valanga.
Nella zona di svuotamento si inizia ad avere un a elevata concentrazione ci cariche mobili che aumentano
(elettroni e lacune) dove le lacune si muoveranno nella direzione del campo elettrico, gli elettroni in
direzione opposta e entrambe daranno un incremento alla corrente di drift (che scorre in verso inversa alla
polarizzazione del diodo), la corrente aumenta con questo effetto a valanga.
Questi sono i due fenomeni che avvengono, fenomeni che a seconda della tipologia dei diodi avvengono o a
tensioni molto elevate (tensione inversa superiore a 100V in modulo) o i diodi possono essere costruiti in
modo che avvengono a tensioni più basse.

Per quanto riguarda l’effetto della temperatura su questi due fenomeni abbiamo che:
- L’effetto Zener è un fenomeno in cui il campo elettrico deve fornire un energia sufficiente a
rompere un legame, se T aumenta, gli elettroni presenti nel legame hanno già di per se un’energia
più alta, e sappiamo che termicamente alcuni elettroni acquisiscono un’energia quasi sufficiente ad
allontanarsi dal legame e quindi se la temperatura aumenta gli elettroni possegono già un’energia
maggiore che tenderebbe a renderli liberi, il campo elettrico deve applicare meno forza per
rompere i legami. Un aumento della temperatura rende più facile che l’effetto Zener avvenga. A
parità di tensione applicata, se aumenta la temperatura ho un aumento della corrente.
L’effetto Zener può avvenire a una tensione più piccola, la tensione necessaria per rompere il
legame diventa più piccola.
- Per l’effetto valanga, il requisito è che tra un urto e quello successivo i miei portatori mobili
(elettroni e lacune) devono acquisire un energia tale che nell’urto successivo siano in grado di
rompere un legame, affinché ciò avvenga tra un urto e il successivo deve percorrere un certo
tempo. Un certo tempo affinché dato un campo elettrico i miei elettroni aumentano la loro energia
cinetica e riescono nell’urto a rompere un legame. Se aumenta la temperatura gli atomi che
costituiscono il reticolo cristallino del silicio non sono immobili ma vibrano nella loro posizione di
equilibrio e l’elettrone va a urtare contro questi atomi nel suo spostamento. L’elettrone che si deve
muovere all’interno del reticolo quando va nel suo cammino, se aumento la temperatura
l’oscillazione aumenta e statisticamente gli urti degli elettroni con gli atomi diventano più frequenti,
quindi tra un urto e il successivo passa meno tempo e di conseguenza tra un urto e l’altro,
l’elettrone riesce ad acquisire meno energia. Il tempo medio tra un urto e il successivo diminuisce e
diventa meno probabile la rottura di un legame. E’ meno probabile che nell’urto successivo abbia
acquisito un energia sufficiente da rompere un legame Un aumento di temperatura causa una
maggiore probabilità di urto tra le cariche mobili e gli atomi del reticolo e quindi i portatori
acquistano in media un’energia minore tra un urto e il successivo, dando luogo, a parità di tensione
applicata, a una minore corrente. A parità di tensione applicata la corrente che ottengo è più
piccola se aumento la temperatura.

Qual è l’effetto predominante? Nella realtà esistono dei dispositivi che vengono costruiti in modo tale che
questi due fenomeni avvengono a tensioni diverse e a tensioni più piccole.
Questi diodi sono detti diodi Zener. (il nome è indipendente dal fatto che c’è uno o l’altro fenomeno)
Questi dispositivi sono costruiti in modo tale che se la tensione di breakdown (che è negativa) in modulo
appartiene a determinati range si ha una diversa predominazione.

Per |VBR| > 7V predomina l’effetto valanga. Se T aumenta inoltre, |VBR| aumenta.
Se |VBR| < 5V predomina l’effetto Zener. Se T aumenta, |VBR| diminuisce.
Per 7V > |VBR| > 5V si ha la presenza di entrambi i fenomeni. Questi diodi vengono costruiti così
appositamente e la temperatura in questo caso va ad influire in modo uguale e opposto sui due effetti.
I due meccanismi si compensano e si ha una stabilità in temperatura.
Se sono entrambi presenti |VBR| è costante, uno tenderebbe a farla aumentare e l’altro a diminuire, quindi
rimangono costanti.
Sono tipici quelli che hanno una tensione in modulo pari a |VBR| = 5.6V.
Molte volte vengono usati diodi Zener perchè presentano un’elevata stabilità della tensione di breakdown
in temperatura.
Quindi i diodi con tensione tra 5 e 7 V, in particolare quelli da 5.6 V, presentano la migliore stabilità in
temperatura, dato che in essi sono contemporaneamente attivi i due meccanismi di breakdown, le cui
dipendenze dalla temperatura si compensano.

Vediamo il fenomeno legato all’effetto della resistenza serie. Se faccio scorrere nel mio diodo una corrente
molto elevata la legge dell’equazione di Shockley inizia a non essere più rispettata, perché la legge è
ricavata ipotizzando che tutta la caduta potenziale cada ai capi della zona di svuotamento.
Abbiamo fatto l’ipotesi che tutta la caduta di potenziale avvenisse ai capi della zona di svuotamento,
indicando il resto della zona P e N neutre e trascurando la caduta di tensione che avveniva nella zona
neutra, ma questo è vero nella realtà solo per correnti non troppo elevate.
Quando le correnti sono elevate questa zona neutra posso schematizzarla con delle resistenze (che sono in
serie), sono un pezzo di silicio con un certo drogaggio e quindi la zona di svuotamento è collegata agli
elettrodi attraverso delle resistenze serie.
Se in queste resistenze serie ci sta scorrendo una corrente non trascurabile, ho nella zona neutra una
caduta di tensione non trascurabile. Ai capi della zona di svuotamento ho una tensione più piccola di quella
applicata all’esterno.

Nella realtà come vedremo ho anche la resistenza dei contatti.


Se vado a fare un grafico di log(i/is) in funzione di V, dovrei ottenere una retta, ma è vero fino a una certa
corrente, poi la corrente non è più lineare, all’aumento della tensione ho una corrente che aumenta meno
di quanto dovrebbe aumentare.
Di questa tensione che vado ad applicare in questa zona (V1) avremo che :
V1 sarà data da Vserie + la caduta sulla zona di svuotamento
Il primo termine non è più trascurabile e quindi
Vw = V1 – Vserie,
quando la caduta sulle resistenze serie non è più trascurabile, quindi la caduta ai capi della mia giunzione
che modella il modello di Shoeckley. Questo modello è ottenuto trascurando la caduta sulla tensione serie e
affermando che tutta la mia tensione va ai capi della mia zona di svuotamento.
Ho Vd = Vw trascurando la caduta sulla resistenza serie, se questo non avviene ho una dipendenza minore
del modello che ho considerato.
Sugli assi ho Vak, e log(ID/Is).
A quali correnti avvengono e quali tensioni si ha l’effetto dipende molto dal dispositivo e da come è
costruito.
Un altro problema presente sia in polarizzazione diretta che inversa è che sul diodo non devo avere una
dissipazione troppo elevata, il prodotto di Vd * Id deve essere inferiore alla potenza massima supportabile
dal diodo. La corrente che attraversa il diodo deve essere limitata altrimenti il diodo si fonde per problemi
termici.
Quindi V1 = Vak che sarà data dalla caduta sulla resistenza serie e la caduta sulla zona di svuotamento.
L’equazione di Schockley è stata ottenuta nell’ipotesi che Vak = Vw ma questo è verso solo se Vserie è
trascurabile. Le due cose coincidono per tensioni molto piccole mentre per tensioni elevate non vale più.
Per correnti elevate la caratteristica I − V delle giunzioni pn comincia a deviare dall’andamento
esponenziale previsto dalla legge di Shockley, a causa della presenza di una resistenza serie dovuta ai
contatti e alla resistività delle regioni n e p, che causa una caduta di tensione non più trascurabile.

Simboli circuitali
Il simbolo circuitale utilizzato per rappresentare il diodo assomiglia a una freccia, rivolta nel verso in cui
scorre la corrente in polarizzazione diretta (anodo -> catodo).
I diodi caratterizzati da tensioni di breakdown volutamente basse vengono, come già detto, indicati
genericamente come “diodi Zener” (che possono a seconda della tensione di breakdown avere un effetto
Zener, valanga o entrambi) hanno lo stesso simbolo ma con una barretta che stilizza una Z.
Ciò indica sostanzialmente che la tensione di breakdown su questi diodi è volutamente piccola.
Altrimenti se non compare, ho che la tensione di breakdown è dell’ordine di parecchie decine di Volt.

Vediamo come analizzare un circuito in cui è presente un diodo partendo da un circuito in cui abbiamo un
generatore di tensione con in serie una resistenza (che possono essere l’equivalente di thevenin del mio
bipolo a due terminali):

La corrente nel diodo scorre dall’anodo verso il catodo e la tensione ai capi del diodo è definita come la
differenza di potenziale tra l’anodo e il catodo.
In questo circuito supponiamo di conoscere Vaa e R.
Le nostre due incognite sono Id (la corrente che scorre nel circuito che coincide con quella che scorre nel
diodo) e la tensione ai capi del diodo.
Il problema di analizzare questo circuito è che la caratteristica del mio dispositivo è una caratteristica non
lineare (come abbiamo visto in forma analitica è un’equazione di tipo esponenziale per l’equazione di
Shockley). Vediamo gli strumenti che abbiamo a disposizione per risolvere il circuito.
Possiamo utilizzare tutte le leggi che riguardano i circuiti che sono applicabili anche nel caso di circuiti non
lineari (anche se alcune delle regole viste come il principio di sovrapposizione degli effetti non si può
applicare se il circuito contiene dei componenti non lineari).
Possiamo però applicare le leggi di Kirchoff, che rimangono valide anche in presenza di componenti non
lineari.
Sono in presenza di due incognite ho bisogno di due equazioni, dove la seconda, la relazione tra Id e Vd,
dipende dalle caratteristiche del dispositivo.

Posso andare a risolvere questo sistema andando a esprimere la caratteristica del dispositivo usando il
modello di Shockley. Per semplicità consideriamo n = 1.

Ho un sistema di equazioni con due incognite e quindi posso risolverlo. Ma sostituendo il valore Id nella
prima equazione ottengo una soluzione trascendente, non posso risolverla analiticamente in modo
semplice. Posso applicare una soluzione di tipo numerico:

Un circuito di questo tipo con un solo diodo è già molto semplice, se ho più diodi le cose si vanno a
complicare. Ricorrerò a un simulatore per risolvere numericamente il mio circuito.
Un altro metodo per risolverlo è il metodo grafico.
Supponiamo di disporre della caratterista grafica del dispositivo che vado a studiare, ho avuto la possibilità
di avere strumenti per misurare esattamente la caratteristiche del dispositivo e sono stato in grado di
riportarle su un grafico.
Posso provare a risolvere il sistema graficamente andando a riportare la seconda equazione (l’equazione di
Kirchoff) sullo stesso piano e andando a vedere se esiste un intersezione tra le due curve:

Le intersezioni tra le due funzioni che ho ottenuto sono le soluzioni del mio sistema.
Vediamo che aspetto assume l’equazione di Kirchoff su questo piano, che curva mi rappresenta l’equazione
alla maglia nel piano Vd e Id, esprimendo Vd in funzione di Id.

Questa equazione ha un legame lineare tra Id e Vd quindi è una retta, ha un segno meno quindi è una retta
pendenza negativa e considerando che per Vd = 0 Id = VAA/R mentre nell’intersezione con l’asse delle
ordinate Vd = Vaa, è semplice tracciarla.

L’equazione alla maglia di Kirchoff nel piano cartesiano è data da una retta.
Tale retta, definita “retta di carico”, interseca l’asse delle ordinate in VAA/R e quello delle ascisse in VAA, e
indica la relazione tra ID e VD imposta dal circuito esterno al diodo, detta retta di carico perché costituisce il
carico che viene applicato al dispositivo.
Il suo andamento è indipendente dal dispositivo, dipende dal valore di R e di Vaa, dipende esclusivamente
da componenti circuitali esterni collegati al dispositivo.
La soluzione è il punto di intersezione tra la retta di carico e la caratteristica del dispositivo
Il valore di Vd relativo a questo punto e il valore della corrente sono il valore della corrente che scorre
all’interno del diodo e il valore della tensione ai capi del diodo. Il punto Q si dice punto di lavoro o di riposo.
E’ il punto in cui il mio circuito funziona in presenza di una polarizzazione costante (ecco perchè detto
punto di risposo).
Determinato il punto di riposo del mio circuito questo metodo grafico non è poi così efficiente ma ci dice
cosa accade al nostro dispositivo se cambiamo i componenti esterni.
Se modifichiamo il valore della resistenza (dipendenza dal valore di R) supponendo di utilizzare lo stesso
dispositivo:

l’intersezione con l’asse delle ascisse rimane costante, cambia l’intersezione con l’asse delle ordinate, le
mie rette di carico diventano un fascio di rette uscenti tutte dal punto VAA, la retta modificando il valore di
R ruota intorno all’intersezione con l’asse delle ascisse.

Il fatto che la caratteristica del diodo sia molto verticale mostra che la caduta di potenziale ai capi del diodo
non cambia di molto, è molto costante, dovuto al fatto che la caratteristica esponenziale è molto verticale.
Ho una variazione di corrente pur mantenendo la tensione ai suoi capi pressoché costante.
Se modifico invece il valore di VAA:

cambia l’intersezione con l’asse delle ascisse e delle ordinate allo stesso modo, ho un fascio di rette
parallele. Se variamo il valore di VAA la retta di carico si sposta parallelamente a se stessa.
Aumenta la corrente, mentre la tensione visto che la caratteristica è abbastanza verticale rimane all’incirca
costante.
Si noti che il concetto di retta di carico è del tutto generale e può quindi essere impiegato ogni volta che si
abbia un bipolo non lineare inserito in una rete lineare: in tal caso la caratteristica data in forma grafica sarà
quella del bipolo non lineare, mentre R e VAA corrisponderanno, rispettivamente, alla resistenza
equivalente di Thevenin e al generatore equivalente di Thevenin visti dal bipolo stesso.

Questo metodo presenta anche degli inconvenienti, infatti se il circuito è complesso può diventare
complicato operare graficamente, non è agevole fare per ogni dispositivo un grafico di questo tipo.
Quello grafico richiede la conoscenza delle caratteristiche dello specifico dispositivo.
Quando si va a parlare di componenti elettronica come diodi, per come vengono realizzati questi sono tali
che anche dispositivi nominalmente uguali quando si misurano le loro caratteristiche, queste non
coincidono, non sono mai uguali.
Le nostre caratteristiche non sono le stesse, se poi il diodo si rompe e lo devo sostituire si deve ricominciare
rimisurando le caratteristiche del dispositivo per poi ri-applicare il metodo grafico.
Nella pratica risulta essere poco pratico da applicare, mentre il metodo numerico richiede comunque
l’utilizzo di un elaboratore.
Dobbiamo cercare metodi che ci permettano di analizzare circuiti che contengo diodi, magari approssimati
(con una soluzione non precisa del circuito) ma che mi consentano di fare un’analisi molto veloce del mio
circuito, così da capire come dipende il comportamento al variare della corrente e della tensione applicata
e demandare lo studio approfondito a un simulatore numerico.
Esistono metodi approssimati con un certo errore ma può a seconda dei casi essere del tutto trascurabile,
mi consente di avere una soluzione plausibile del mio circuito raffinata successivamente con un simulatore.
Cerco metodi approssimati per risolvere il mio circuito applicando le regole che conosco.
Il primo metodo approssimato è il modello a caduta di tensione costante.
Abbiamo visto di non essere in grado di risolverlo per la caratteristica esponenziale, ho un andamento come
mostrato in figura:

Posso provare ad approssimarlo in qualche modo in moto tale che posso risolvere il circuito in modo
semplice e immediato. In questo modello, l’approssimazione fatta è quella di vedere la caratteristica come
quella mostrata in rosso, in cui il tratto di polarizzazione positiva è fortemente verticale in cui si ha un forte
incremento della corrente per piccoli incrementi della tensione. Trascuro la corrente per tutte le tensioni
fino a un certo valore di riferimento.

Dopo Vg considero la tensione nel mio diodo costante. La caratteristica viene trasformata in due rette, una
retta orizzontale (i = 0) fino a Vg, e una retta verticale (come una tensione ideale) con V = Vg, per qualunque
valore di corrente che scorre, con una corrente != 0.
Entrambe le due rette sono delle approssimazioni, non è veramente nulla all’inizio la corrente, potrebbe
esserlo abbastanza in un’inversa visto che sono nanoAmpere ma per V > 0 non è più vero che la corrente è
così trascurabile. La tensione ai capi del diodo non rimane esattamente pari a Vy ma varierà, è un
esponenziale molto ripido ma non una retta verticale.
Facendo però questa approssimazione si ottengono buoni risultati e quindi mi consente di risolvere
facilmente il mio circuito. Per convenzione si prende:

E durante il corso useremo questa convenzione. Si tratta di una convenzione perché non è detto che la
tensione ai capi del diodo sia esattamente pari a questo valore ma varia. La tensione ai capi del diodo
polarizzato direttamente la prendiamo così per convenzione.
Esisterà solo un punto di lavoro in cui valrà questo valore ma noi semplifichiamo il tutto così.
Circuitalmente possiamo sostituire il nostro simbolo circuitale del diodo con:
La caratteristica risulta approssimata da una semiretta per per tensioni inferiori a V , seguita poi da una
semiretta verticale. Si considera quindi il diodo un circuito aperto quando la tensione ai suoi capi è inferiore
a V e un generatore di tensione pari a V non appena la tensione ai suoi capi raggiunge V.
Si considera un diodo interdetto per V < Vg, la corrente che sorre è nulla, possiamo sostituire il diodo con
un circuito aperto. Mentre per V >= Vg avrò il diodo in conduzione e lo sostituisco con un generatore di
tensione ideale di valore pari a Vg = 0.7V, nel nostro caso.
Il mio componente, a seconda delle zone di funzionamento, se si trova in conduzione lo sostituisco con un
generatore di tensione, mentre se è interdetto lo sostituisco con un circuito aperto.
Questo modello approssimato è detto modello a caduta di tensione costante.
Il circuito diventa un circuito che sappiamo risolvere, abbiamo un generatore in più se il diodo è in
conduzione o un aperto se il diodo è interdetto.
Oltre a questo modello esiste un modello ancora più semplificato, modello del diodo ideale.
Consiste in un modello in cui si considera Vg = 0.7V trascurabile rispetto alle altre tensioni presenti nel
circuito quindi si può porre Vg = 0.

In tal caso il diodo viene trattato come un interruttore. Succede in questo caso che il diodo per V >= lo
schematizzo come un cortocircuito, questo è quando è in conduzione. Quando il diodo è interdetto (V < 0) il
diodo è un circuito aperto. Questo modello dà la soluzione più approssimata con il minor grado di
affidabilità.

Un altro modello, più raffinato, è il modello lineare a tratti.


Considero la caratteristica ancora con i = 0 per V < Vg ma il tratto verticale invece di prenderlo esattamente
verticale, lo prendo con una certa pendenza. Cambia quindi che quando è in conduzione, per V = Vg, il mio
diodo non è più un generatore di tensione ideale ma un generatore di tensione con in serie una resistenza
Rf. Il diodo in polarizzazione diretta viene sostituito con un generatore di tensione di valore V in serie con
una resistenza Rf , mentre in polarizzazione inversa lo si considera semplicemente un circuito aperto.
In questo caso devo andare a valutare Vg e Rf quando sono in conduzione.

Tra i vari modelli quale è il più utilizzato? Il modello a caduta costante con Vg = V = 0.7V perché risulta
essere una via intermedia tra questi modelli
Il modello a diodo ideale da soluzione più approssimata e può essere usato solo se la caduta sul diodo
considerata, è del tutto trascurabile, nel modello lineare a tratti invece non solo ho Vg ma anche Rf tale da
sceglierli il valore e quale valore di Rf dipende dalla pendenza retta, è un valore che il costruttore non
fornisce perché la caratteristica varia da dispositivo a dispositivo.
Alla fine il modello approssimato utilizzato di più è quello a caduta costante.

Vediamo come risolvere il seguente circuito.

Ho un generatore di tensione costante con polarità indicata in figura (+ dove ho il segmento più grande),
una resistenza R e il nostro diodo.
Con questo tipo di circuito possiamo fare l’ipotesi che il diodo sia in conduzione.
La prima cosa che devo fare è un’ipotesi di partenza sullo stato del diodo stesso, ipotesi più palusibile
possibile.
In questo caso visto che l’anodo (collegato alla zona P del diodo) è collegato tramite una resistenza R a una
tensione con polarità positiva (applicata all’anodo) è verosimile fare questa ipotesi.
Se il diodo è in conduzione posso sostituire il diodo con uno dei tre modelli visti. Considerando il modello a
caduta di tensione costante, sostituisco il mio elemento non lineare con un generatore di tensione ideale di
valore di tensione costante con la polarità + verso l’anodo e – verso li catodo con valore costante pari a Vg
che noi prenderemo sempre pari a 0.7V.
Abbiamo un circuito lineare, VD non è più un incognita, di conseguenza dell’ipotesi fatta all’inizio, il modello
stesso l’ha determinata. Determino ID e abbiamo così ottenuto la risoluzione del circuito.
Questa è la soluzione corretta se è verificata l’ipotesi iniziale. Risolto il circuito vado a vedere se questa
ipotesi è verificata.
Se ipotizzo che il diodo sia in conduzione il mio modello mi porta a dire che la tensione ai capi del diodo è
pari a Vg, posso verificare se la corrente che scorre nel diodo è maggiore di 0, e se questa ipotesi è
verificata allora l’ipotesi iniziale è corretta.
La ID che ho ottenuto è positiva e il verso scelto è proprio quello da anodo a catodo e di conseguenza
l’ipotesi del diodo in conduzione è corretta.
Se avessi ottenuto una corrente negativa, ciò voleva dire che l’ipotesi iniziale era sbagliata.
Questa è la nostra soluzione perché ho un circuito che, certo ha dei componenti non lineari, ma hanno
caratteristiche monotone e si può provare in questo caso che il circuito prevede un’unica soluzione.
Visto che ne abbiamo trovato una che verifica tutte le ipotesi di lavoro allora questa è la soluzione corretta.
Il mio punto di lavoro del diodo è una tensione pari a 0.7V e una corrente pari a 4.3mA.
Proviamo ad usare il modello del diodo ideale. Facciamo anche qui l’ipotesi del diodo in conduzione.

Il diodo è sostituito da un cortocircuito (conviene mantenere anodo e catodo così perché poi dopo
dobbiamo fare la verifica che la corrente scorra da anodo a catodo. Si può allora calcolare ID, e calcolata
possiamo fare la verifica. La verifica daàesito positivo perché la ID da anodo a catodo ha segno positivo.
Vediamo infine il modello lineare a tratti.

Devo scegliere qui Rf e Vg. In questo caso Vg si sceglie tipicamente pari a 0.65V.
Rf viene invece tipicamente scelta pari a una decina di Ohm.
Il modello non è molto usato, anche perché la presenza di Rf crea problemi nel calcolo.
Anodo e catodo sono ora ai capi di Vg con in serie Rf. La tensione VD adesso è quella complessiva, è quella
tra anodo e catodo, non è solo Vg.

Anche in questo caso devo fare la verifica. ID è positiva e quindi la verifica ha dato esito positivo.
Questo modello complica un po’ i conti e c’è l’incognita da scegliere per Vg e Rf, in funzione del fatto che io
scelgo 10 ohm, 15 ohm, 20 ohm ottengo un risultato un po’ diverso. Vediamo i risultati ottenuti:
I primi due sono già dati. Il modello esponenziale è quello più vicino alla realtà, ottenuto mediante un
simulatore. Il metodo grafico mi da un risultato vicino alla realtà.
Il diodo ideale dà la risposta più lontana dal risultato del simulatore, quella lineare a tratti la più vicina,
mentre quella a caduta costante è intermedia ma molto vicina a quella lineare a tratti.
Il migliore compromesso tra semplicità del modello e accuratezza della soluzione ottenuta è il modello del
diodo a caduta di tensione costante.
In molti casi può essere semplificato quello del diodo ideale. Per esempio se il diodo è stato inserito in un
circuito con tensioni dell’ordine di 50V. Se invece di 50V si ottiene 49.3V si ottiene un errore molto più
piccolo. Nei circuiti in cui la caduta di tensione sul diodo può essere considerata trascurabile, si può
utilizzare il modello ideale del diodo. In tal caso semplificheremo la risoluzione del circuito.
Il modello lineare a tratti non lo useremo invece, già con un diodo porta a delle difficoltà.

Procedura

L’analisi dei circuiti a diodi si svolge partendo da un’ipotesi di lavoro per lo stato di conduzione o meno dei
varo diodi, ricavata in genere per ispezione. Si risolve poi il circuito sostituendo ai diodi le reti equivalenti
consistenti con il modello di diodo adottato e con lo stato assunto per ciascuno di essi.

Se ho N diodi l’ipotesi deve essere verificata su tutti i diodi. E’ sufficiente che su un diodo non è verificata
per dover ri-iniziare da capo. Le ipotesi da verificare sono:

Se faccio l’ipotesi della conduzione pongo Vd = Vg e devo verificare che ID sia maggiore di 0, se il modello
imposta la tensione e la verifica sarà fatta sulla corrente.
Se ipotizziamo che il diodo sia in interdizione, diventa un circuito aperto, il modello impone che la corrente
che ci scorre deve essere nulla e quindi la verificata deve essere fatta sulla tensione.
Quindi si va a verificare, per ciascun diodo, se queste sono consistenti con lo stato ipotizzato, vale a dire se
la tensione che si presenta ai capi dei diodi considerati interdetti è effettivamente inferiore a V (o
semplicemente negativa se si considera V trascurabile, VD < 0 nel caso di modello a diodo ideale) e se la
corrente nei diodi considerati in conduzione scorre effettivamente nel verso della polarizzazione diretta. Se
queste verifiche hanno successo, data l’unicità della soluzione per una rete elettrica in cui siano presenti
componenti con caratteristiche I − V monotone, la procedura seguita è corretta e le grandezze trovate sono
corrette. Se, invece, anche per un solo diodo, le condizioni non risultano soddisfatte, si deve ripartire da
capo, considerando una configurazione diversa per lo stato dei diodi.

Circuito rettificatore – Raddrizzatore a singola semionda


Vediamo adesso dei circuiti che vanno ad effettuare elaborazioni su un segnale sfruttando che il diodo è
rettificante, consente il passaggio della corrente solo in un verso. L’utilità di un componente con una
caratteristica non lineare viene sfruttata in tutti quei circuiti che tentano di rettificare un segnale.
Una delle applicazioni più semplici dei diodi consiste nella realizzazione di circuiti rettificatori, in grado cioè
di ricavare un segnale a valor medio diverso da zero a partire da un segnale a valor medio nullo.
Come vedremo è la prima operazione che viene compiuta su tutti quei circuiti in cui si vuole ottenere una
tensione continua partendo da una tensione periodica di tipo sinusoidale, in alternata.
Far ciò richiede l’utilizzo di vari blocchi, tra cui una delle prime operazioni che vengono compiute è quella di
riuscire a ottenere un segnale a valore medio non nullo partendo da una tensione periodica.
Per esempio è possibile ottenere da un’alimentazione di rete che è periodica un’alimentazione continua per
i caricatori dei nostri dispositivi.

Il circuito ha una piccola modifica rispetto a quello di prima solo che adesso la mia tensione non è costante,
ma Vs = VMsin(wt) (VM è il valore massimo, il valore di picco della mia sinusoide).
Utilizzo un diodo orientato come indicato in figura, con l’anodo collegato al terminale + del mio generatore
e catodo collegato a una resistenza RL (load).

Trattiamo il circuito con il modello del diodo ideale, se la tensione che stiamo trattando è la tensione di
rete, questa ha un valore efficace tipicamente di 230V e quindi un valore massimo di 300V circa, possiamo
usare il modello a diodo ideale.
Vediamo cosa succede durante il primo intervallo in cui il segnale di ingresso è maggiore di 0.
Posso fare come ipotesi che Vs in questo semiperiodo sia positiva, ho una tensione positiva applicata
all’anodo, ho il diodo in polarizzazione diretta e posso fare l’ipotesi che il diodo sia in conduzione.

Di conseguenza posso sostituire il mio diodo con un cortocircuito:

Quando valrà Vu? In questa situazione, essendo collegati da un cortocircuito ho:

Vediamo allora quanto vale la corrente tra nodo e catodo (presa in quel verso così da verificare subito
l’ipotesi).

Per Vs sto facendo l’analisi nel semiperiodo in cui è maggiore o uguale a 0. RL è positiva per definizione e
quindi ID >= 0. Quindi l’ipotesi risulta essere verificata.
Nell’intervallo T1 in cui la tensione di ingresso è positiva la tensione di uscita è esattamente pari a Vs.
Vediamo nell’altro intervallo T2, dove la tensione di ingresso è negativa.

L’anodo è collegato ad una tensione negativa (Vs < 0) e quindi l’ipotesi più plausibile è che il diodo sia
interdetto, che sia spento.

Allora posso dire che la corrente è nulla quindi ho un circuito aperto.


Se il diodo è un circuito aperto nel circuito non ci può passare corrente, quindi i = 0

La caduta su RL è 0 e quindi Vu = 0. La soluzione di questo circuito è Vu = 0.


Devo andare a verificare l’ipotesi, devo calcolare il valore di Vak, quando vale la differenza di potenziale ai
capi del mio diodo? Ho la differenza del potenziale dell’anodo rispetto al ground e del catodo rispetto al
ground:
VAK = Vs – Vu = Vs < 0
quindi VAK < 0 e questa relazione mi verifica l’ipotesi.
Anche questa è una soluzione accettabile nell’intervallo di tempo T2.
Entrambe le ipotesi sono correttamente verificate.
Ma io sto trattando delle tensioni che possono essere molto grandi. Devo verificare che il diodo non mi
vada in breakdown. Questo circuito mi funziona correttamente (mi annulla il segnale di uscita da t1 a t2) a
patto che il diodo non vada in breakdown e cominci a condurre.
Abbiamo allora un parametro:

che indica la tensione massima inversa applicata al diodo durante il suo funzionamento.
In questo caso VAK = VS e quindi il valore in modulo più grande di tensione inversa è il valore indicato in
figura.

Se questa tensione massima è in modulo più piccola della tensione di breakdown allora il mio diodo non
andrà in breakdown e non avremo alcun problema.
Se invece fosse maggiore della tensione del breakdown, il diodo va in breakdown e quindi il diodo non è più
un circuito aperto ma dovrei andarlo a sostituire con un altro modello.
Dovrei andarlo a sostituire con un generatore di tensione VBR in senso opposto.
Per evitare che ciò accada devo andare a selezionare un diodo con un PIV superiore a quello che deve
subire in quella applicazione. Se trovo VM = 70V andrò a scegliere PIV dell’ordine di 100, 150V così sono
sicuro che il diodo non andrà mai in breakdown.
Durante l’intervallo T2 Vu = 0 e quindi il circuito complessivo si comporta da rettificatore.

Fa passare solo una delle due semionde, con questa orientazione fa passare solo la semionda positiva, se
invertiamo invece il diodo fa passare solo la semionda negativa.
La tensione di uscita sarà costituita dalle sole semionde positive.
Ecco perché viene detto raddrizzatore a singola semionda. Con l’anodo posizionato verso il terminale
positivo del generatore taglia solo quelle negative.
Ho ottenuto un segnale a valor medio diverso da 0.

Vediamo cosa cambia se utilizziamo il modello a caduta di tensione costante.


Non cambierà nella parte in cui il diodo è interdetto ma le cose cambieranno solo nella parte in cui il diodo
è in conduzione.
Ora tra anodo catodo devo sostituire un generatore di tensione costante pari a Vg con polarità positiva
sull’anodo e negativa sul catodo.

Risolviamo il circuito. Prendo la corrente ID da anodo a catodo.

Quando il diodo è in conduzione devo ricordarmi che ho una caduta ai capi del diodo, la tensione di uscita è
più bassa rispetto alla tensione di ingresso di un valore pari a Vg: Vu = Vs – Vg.
Quando il diodo è in conduzione ha la stessa forma del segnale di ingresso, ho soltanto una diminuzione di
tutti i valori pari a Vg.
Quando l’ipotesi è verificata questa è la soluzione del circuito. Devo fare la verifica:

Se considero che per entrare in conduzione è necessario che Vs >= Vy allora il diodo non condurrà per tuto
il periodo da 0 a t1 ma condurrà solo per VS >= Vg. Fino a quando la tensione non arriva al valore Vg.
Il diodo rimane sempre interdetto e inizierà a condurre solo quando Vs >= Vg. A questo punto il diodo entra
in conduzione e allora posso usare questo modello. La stessa cosa accade quando la tensione inizia a
diminuire.

Quando la tensione in ingresso scende al di sotto di Vg la tensione mi si interdice.


Il diodo mi sarà in conduzione solo nell’intervallo di tempo [t*, t1*], prima sarà interdetto.
La tensione in rosso è come sarebbe stata la tensione in uscita col modello a caduta di tensione ideale.
Ho infatti Vs = Vu nel modello ideale. Quando non posso trascurare Vg la tensione di uscita è in ritardo
rispetto alla tensione di ingresso.

La tensione di uscita non è esattamente la replica della tensione di ingresso, il diodo rimarrà interdetto per
un periodo più grande.
Anche il semiperiodo positivo non viene replicato correttamente ma c’è un certo ritardo di accensione e un
anticipo di spegnimento del diodo. Vediamo se siamo in grado di calcolare l’istante t* per valutare il ritardo.

Se al tempo t* imponiamo che la tensione sia pari a Vg ho:

Se abbiamo una tensione massima Vm dell’ordine di 300V abbiamo ottenuto che la tensione di uscita non è
esattamente uguale alla tensione di ingresso, Vu = 299.3 Vy = 0.7.
Il ritardo t* = arcsin(numero molto piccolo) / w -> t* risulta essere molto piccolo. Se ho tensioni molto
grandi l’errore è trascurabile. Se Vs è molto piccola, per esempio 10V, ottengo risultati non più trascurabili.
Se PIV < VM ho un piccolo periodo in cui il diodo entra in conduzione in senso inverso e quindi ho una
tensione negativa in uscita.

Se nel circuito sostituisco la resistenza con condensatore ottengo il rilevatore di picco.

La presenza del condensatore va a far sì che il comportamento del circuito sia diverso dal precedente.
Partiamo dall’ipotesi t = 0. Facciamo l’ipotesi di diodo ideale e di diodo ON. Il diodo viene sostituito da un
cortocircuito.
Ho un generatore di tensione Vs collegato al condensatore:

Nel caso di diodo ideale in conduzione

Abbiamo quindi che Vu = Vs fino a quando l’ipotesi di diodo ideale in conduzione risulta essere verificata.
Qual è la verifica? ID >= 0, ma ID = Ic è la corrente di carica del mio condensatore, per le polarità che ho
scelto. Questa risulta essere positiva quando dVu/dt >= 0 e quindi quando dVs/dt >= 0.
Questa ipotesi è verificata soltanto fin quanto la derivata del segnale di ingresso rispetto al tempo è
maggiore o uguale a 0. Questa ipotesi è verificata soltanto fino a quando arriva il picco, poi la tensione di
ingresso diminuisce.
Accade che dopo il picco il diodo si interdice. La presenza del condensatore fa si che si avrebbe la necessità
di far passare la corrente in direzione opposta, perché il condensatore è inerziale rispetto alle variazioni di
tensione. Accade quindi che quando arrivo al picco la tensione sull’anodo, Vs, diminuisce mentre la
tensione sul catodo viene mantenuta costante dal condensatore che arrivato alla tensione di picco VM,
tende a mantenere questa tensione.
A questo punto ai capi del diodo avrei una tensione opposta, ho che la tensione sul catodo è maggiore della
tensione sull’anodo perché la tensione sull’anodo scende perché Vs scende mentre la tensione sul catodo
rimane a Vm, mantenuta dal condensatore.
Abbiamo ottenuto che dVs/dt >= 0, altrimenti nel diodo ci dovrebbe scorrere una corrente in verso opposto
e questo non può accadere.
Allora il diodo si interdice, cosa accade alla tensione di uscita?
Abbiamo un condensatore su cui abbiamo posizionato della carica e non ha nessuna condizione per
scaricarsi, non c’è nessuna resistenza e un condensatore isolato mantiene a lungo la carica.
La tensione ai suoi capi rimane Vm e il diodo non rientrerà mai più in conduzione perché non risulterà mai
che la tensione dell’anodo sia maggiore della tensione di catodo, al massimo sarà uguale.
Il condensatore rimane carico al valore di picco, nel tempo avrà una tensione sempre pari al valore di picco
della tensione di ingresso. Il mio condensatore mantiene questa tensione a patto che il diodo non vada mai
in breakdown. Quanto è spento il diodo è polarizzato in inversa.
Quanto vale PIV?

Il caso peggiore è quando Vs = -VM e Vu rimane fisso a VM. Quindi nel caso peggiore (worst case) ho che:
VAK = -VM-VM e in modulo quindi PIV = 2VM, la distanza tra la tensione positiva più grande sul catodo e
sull’anodo la tensione negativa più grande, in modulo.
Questo circuito è quindi in grado di mantenere la tensione costante sul condensatore.
Dopo il primo semiperiodo la tensione sul condensatore rimane costante pari al valore di picco.

Si può pensare quindi di aver risolto e di avere una tensione continua. Ma nella realtà questa tensione va
applicata a un carico, il carico a cui si vuole fornire questa tensione.
Il circuito più reale prevede che vi sia un carico, in tal caso ho un circuito rettificatore con filtro RC.

Dopo il diodo ho un condensatore con in parallelo il mio carico.


La presenza del condensatore fa sì, come abbiamo visto, che quando arrivo al picco il mio diodo rimane in
conduzione da 0 fino ad arrivare al picco, poi la presenza del condensatore che è inerziale alle variazioni di
tensione, mantiene la tensione di uscita costante, fa sì che il diodo vada in interdizione.
Qaundo il diodo è interdetto, Vs non è collegato al nostro carico, Vu era arrivata a Vm, che ha portato in
interdizione il diodo.

Ora il condensatore non è più isolato ma in parallelo a una resistenza e si scaricherà attraversa la resistenza.
Ho la scarica del condenstaore attraverso a una reistenza.
Ho un andamento della tensione esponenziale descrescente con constante di tempo RL * C.
La tensione comincia a diminuire fino a che il diodo è spento. Ho un tratto di esponenziale decrescente
anche se sembra una retta.
La tensione di ingresso intanto diminusice, diventa negativa, diventa positiva e dal momento che la
tensione sul condensatore si è scaricata, c’è un intervallo in cui la tensione di ingresso è maggiore della
tensione ai capi del condensatore, ho quindi che la tensione dell’anodo è maggiore della tensione del
catodo e quindi il diodo rientra in conduzione nel tratto.
Il genratore Vs ricarica nuovamente il condensatore e nuovamente Vu = Vs.
Vu risale verso Vs e poi il diodo si rispegne, il condensatore si riscarica rispetto a RL fino a che il diodo
ritorna in coduzione e di ricollega a Vs, allora si ricarica fino a Vm.
Quello che alla accade tensione di uscita è costituito da un tratto di carica esponenziale e un tratto di
sinusoide.
Ho un andamento di questo tipo in cui il tratto di esponenziale dipende dal valore della capacità e della
resistenza di carico. Se il prodotto è molto grande, costante di tempo lunga, questa scarica sarà molto lenta
quindi in realtà si scarica pochissimo e poi viene ricaricato.
La differenza tra il valore massimo e il valore minimo che la tensione ha su questa oscillazione di uscita a
regime viene chiamata ripple, si ripete in modo periodico una tensione non costante ma è una tensione
circa costante che oscilla con questo ripple. Il valore minimo che raggiunge è legato alla frequenza
dell’onda, bisogna confrontare il periodo del segnale di ingresso con la costante di tempo.
Cambiando il valore di questa costante di tempo rispetto al periodo dell’onda la scarica può essere più o
meno veloce, se risulta essere veloce riotteniamo il rettifcatore come se il condensatore non ci fosse.
Se la costante risulta essere molto lunga la tensione è circa pari al valore massimo.
In alcuni casi questo metodo può essere usato pernottenere una tensione costante, utilizzano un diodo, un
condensatore di grandi dimensione, un carico e se il condensatore risulta essere grosso, il ripple risulta
essere piccolo e ho ottenuto una tensione circa costante. Questa soluzione non dà tensioni perfettamente
costanti in uscita ma come metodo per ottenere una tensione costante si può usare, in qualche
implementazione di bassissimo costo.
Quindi la tensione di uscita è quindi simile a una continua, ma con una fluttuazione (ripple) la cui ampiezza
è tanto più piccola quanto più grande è la costante di tempo RC rispetto al periodo di VS.
Da notare che il PIV qui non sarebbe proprio pari a PIV = 2VM ma il caso peggiore, quando il condenstaore
si scarica poco, è proprio questo.
Conviene sempre trattare il caso peggiore, considerare PIV >= 2VM.

Raddrizzatori a doppia semionda


Questi raddrizzatori impiegano i diodi e l’onda viene radrizzata ma viene fatta passare la semionda positiva
e la semionda negativa viene invertita di segno.
Può portare vantaggi rispetto al semplice raddrizzatore.
Se vado a fare un radrizzamento della tensione, per motivi di sicurezza dobbiamo interporre tra il nostro
cirucito e la presa di corrente un trasformatore perche fornisce isolamento galvanico (tra la rete e il circuito
che andiamo a progettore) e per evitare che i circuiti possano avere cortocircuiti che possono essere
pericolosi, soitamente tra la tensione di rete e il circuito si deve sempre interporre un trasformatore.

Prendiamo un trasformatore con un circuito primario con avvolgimento (il pallino è nel verso positivo
avvolgimento) di N1 spire e il secondario con un avvolgimento di N2 spire.
Prendermo in considerazione soltanto i trasformatori ideali, per i quali il flusso magnetico totale può essere
considerato trascurabile, per cui:

Con I1 e I2 entranti nel pallino. Le correnti in uscita sono legate dall’inverso del rapporto spire con segno
negativo, il rapporto tra le tensioni è invece esattamente pari al rapporto spire.
Se vado a utilizzare questi circuiti sono nella situazione di andare a vedere i raddrizzatori a doppia
semionda.

Che operazione fanno questi raddrizzatori? Non solo fanno passare la parte positiva com’è ma prendeno la
parte negativa e la cambiano di segno.
La mia tensione di uscita è costituita da una sequenza di lobi, e non solo da un lobo e dal valore 0.
Questa tensione si avvicina sempre di più a una tensione costante, vedremo come ottenere una tensione
con un ripple piccolo usando condensatori piu piccoli rispetto a quelli che avevamo nei raddrizzatori a
singola semionda.
Iniziamo a vedere un raddrizzatore.

Raddrizzatore a doppia semionda senza C (con il trasformatore a doppio secondario con presa centrale)

Il trasformatire presenta un primario con N1 spire e due secondari, in realtà è un unico secondario dove
però i terminali disponibili sono 3, l’inizio dell’avvolgimento, la fine dell’avvolgimento ma anche la presa
centrale, il centro dell’avvolgimento (più o meno il centro, dipende da come è strutturato).
Se la presa centrale è esattamenbte al centro abbiamo Na spire e Nb spire con Na = Nb, la presa centrale è
esattamente a metà dell’avvolgimento complessivo.
Se differenzio questi terminali che porto fuori posso avere Na > Nb o Nb > Na con Na + Nb = N2 comunque.
Ho a disposizione due tensioni in uscita anche perché questa presa centrale posso prenderla come
terminale di riferimento per le mie tensioni. Questi trasformatori sono caratterizzati da due tensioni
presenti sul secondario con le loro polarità. Ho per entrambe il pallino rivolto verso l’alto.
Con questa polarità la tensione Va ha + in alto e – centrale mentre Vb ha + al terminale centrale e – in
basso.
Sebho a disposoizione un trasformatore di questo tipo, ho un primo inconveniente ovvero che sono
ingombranti, è sufficiente che prenda due diodi con il primo diodo D1 collegato al terminale in alto del mio
seocndario (+Va) con la stessa polarità (terminale – di VB) e li collego in maniera tale che entrambi hanno il
catodo in comune.
Ho l’anodo di uno al terminale pià in alto, l’anodo dell’altro al terminale piu in basso del mio trasformatore
e il catodo condiviso e in serie alla resistenza messa tra il terminale a comune dei diodi e la presa centrale.
Al momento trascuriamo la presenza del condensatore. Supponiamo di avere un diodo ideale.
Se V1 > 0 allora VA > 0 e VB > 0, me lo dicono le convenzioni del mio trasformatore, tutte le tensioni sono
infatti prese col + sul pallino. Le tensioni sul secondario hanno le stesse polarità di V1.
Il diodo D1 è quindi collegato al terminale + di Va, che è positiva e quindi l’ipotesi che posso fare è D1 ON.
Il diodo D2 è collegato a terminale – di VB con VB positiva, l’anodo di questo diodo rispetto al terminale di
riferimento ha una tensione negativa, è ipotizzabile che D2 sia OFF essendo collegata al terminale – di una
tensione positiva.

D2 non c’è, è un circuito aperto.


A questo punto il circuito è costituito da Va, il diodo è un cortocircuito, è collegato a Vy che è collegato al
terminale di riderimeto, presa centale, quindi ottengo:

La tensione di uscita è positiva durante questo intervallo.


Vedimao però le verifiche, ho due diodi su cui ho fatto due ipotesi quindi ho due verifiche da fare.
Il diodo D1 l’ho sostitutio con un cortocircuito e devo quindi vedere che corrente che score tra anodo e
catodo sia positiva, ID1 > 0. Il circuito che mi trovo a considerare, se lo ridisegniamo, è:

L’ipotesi su D1 è verificata. Vediamo la condizione sul diodo D2, in che condizioni è VAK2?

La tensione sull’anodo, se prendo come riferimento la tensione sulla presa centrale:


VA2 = -VB, perché Vb ha la polarità indicata in figura
VK2 = VA, avendo un cortocircuito

che è < 0 perché VB e VA soni tutte e due positive.


In particolare se:

il diodo D2 è spento e il suo PIV = 2VM.


La verifica di D2 è effettuata e abbiamo anche identificato che durante questo intervallo di tempo in cui ho
V1 > 0 (ipotesi iniziale) l’uscita è uguale a VA e D1 è acceso, D2 è spento e D2 rimane spento con un PIV =
2VM.
Infatti la corrente non può scorrere nel nodo a comune con D2 e quindi questo sarà il suo andamento:

Percorrendo la resistenza dall’alto verso il basso ho una Vu positiva e pari a Va.


Nel secondo semiperiodo si ha invece V1 < 0 e quindi con le polarità indicate in figura si ha anche Va < 0 e
Vb < 0. E’ presumibile che il diodo D1 sia OFF mentre è presumibile, visto che l’anodo di D2 ha tensione
positiva rispetto al riferimento, che D2 sia ON.
La corrente scorrerà nel seguente verso, essendo D1 OFF la corrente può solo transitare a destra e ripassare
attraverso la resistenza per poi richiudersi sul terminale centrale:
La corrente scorre nuovamente in RL nello stesso verso di prima, quindi dinuovo Vu >= 0.
Se andiamo a disegnare il nostro circuito equivalente infatti:

Il terminale Vu ha questo verso. Ma Vu = -VB dal circuito equivalente, ed essendo VB < 0 allora VU > 0.
E’ positiva anche in questo caso.
Verifichiamo ora che la corrente scorra in questo verso, ovvero che ID > 0.

Risolvendo il circuito si ottiene:

Essendo VB negativa la verifica è soddisfatta.


Facciamo ora la verfiica sul diodo D1, prendendo VA1 e VK1:

A1 è collegato al + di VA mentre K1 è collegato al – di VB. Siamo nelle condizioni in cui entrambe sono
negative e quindi la verifica è effettuata. Anche in questo caso se:
Va = VB = VMsin(wt)
il caso peggiore è quando VA e VB sono entrambe a valor massimo e quindi PIV = 2VM.
Durante il primo semiperiodo abbiamo D1 ON e D2 OFF quindi Vu = Va e quindi la tennsione è positiva.
Nel secondo peridoo D1 OFF e D2 ON e quindi Vu = - VB che è negativa e quindi Vu è positiva.

Otteniamo una forma d’onda di questo tipo, entrambe le semionde passano attraverso i diodi sul mio
carico. Su RL otterrò sempre una tensione positiva. Tutto ciò non considerando il condensatore.
Già senza condendstore ho una tensione con un valor medio piu alto rispetto a prima, quando avevo il solo
rettificatore. Abbiamo una tensione piu vicina a una tensione continua,rispetto a prima dove il secondo
semiperiodo è nullo.

Raddrizzatori a doppia semionda con C


Se aggiungo il condensatore:

Supponendo che all’istante t=0 abbia VC = 0, parto da 0 e il condensatore si caricherà attraverso D1, D1 è
ON e quindi il condensatore si carica e la tensione sul condensatore diventa uguale alla tensione di
ingresso.
In corrispondenza del massimo succede la stessa cosa vista nel rettificatore, la tensione di ingresso Va inizia
a diminuire, il condensatore si oppone alla variazione di tensione matenendo una tensione pari al massimo
Vm, e quindi il dido D1 si interdice. D1 diventa OFF.

Succede che se il diodo D1 è diventato anch’esso OFF sul condensatore non c’è piu collegamento con Va,
avremo il collegamento con il carico RL e quindi quello che avremo è la scarica del condensatore.
Sarà un esponenziale, e a seconda della costante di tempo che avremo fino a quanto non ci sarà dinuovo
che la tensione presente ai capi di uno dei due diodi non diventa maggiore la tensione dell’anodo rispetto al
catodo.

Nel successivo intervallo di tempo siamo nel periodo negativo dell’onda di ingresso e quindi quello che
conduce è D2, D2 rientra in conduzione perche la tensione sul suo anodo è maggiore della tensione sul suo
catodo e quindi il condensatore si ricarica e ri-arriva al massimo.
Poi dinuovo entrambi i diodi si spegnono, ho dinuovo la scarica del condensatore e il ciclo poi si ripete.
Nel ciclo successivo sarà D1 a entrare in conduzione per un intervallo di tempo e si ha la ricarica del
condensatore e così via.
Abbiamo anche in questo caso una tensione con un certo ripple ma il vantaggio del raddrizzatore a doppia
semionda è che il condensatore si scarica per un periodo molto più breve.
Nel rettificatore il secondo lobo non c’era e lì la tensione rimaneva nulla, la scarica sarebbe proseguita fino
all’intervallo tracciato in verde, con lo stesso valore di resistenza e condensatore. Ottengo quindi a parità di
resistenza e condensatore una tensione di uscita con un ripple più alto.

La scarica nell’altro caso sarebbe proseguita per un tempo maggiore.


Posso ottenere lo stesso ripple con valori di condensatore più piccoli.
Avendo entrambi i lobi della funzione d’onda possiamo avere una riduzione della scarica del condensatore,
circa alla metà di quella che si ottiene con un rettificatore a singola semionda.
Questo tipo di raddrizzatore ha però lo svantaggio di richiedere un trasformatore a presa centrale, che
risulta essere ingombrante.

Raddrizzatore a ponte di Graetz


Vediamo se possiamo realizzare un raddrizzamento a doppia semionda senza utilizzare un trasformatore a
presa centrale ma con un trasformatore normale.

Il trasformatore è sempre presente per requisiti di sicurezza quando si fa una conversione di una tensione
prelevandola dalla rete stesa.
Abbiamo un trasformatore che in base alle spire ci darà una tensione V2 con la polarità descritta in figura,
che sarà o uguale a V1 se il rapporto spire è uguale o maggiore/minore a seconda del rapporto spire.
Il carico è sempe costituito da RL con in parallelo un condensatore. La complicazione che si ha qui è legata a
utilizzare 4 diodi invece che 2, collegati in una confgiurazione a ponte. I diodi vengono messi a rombo sulle
sue diagonali, uno in cascata all’altra nello stesso verso. Se guardiamo i due lati, abbiamo che il lato sinistro
presenta diodi nella configurazione back-to-back, anodo contro anodo, mentre a destra abbiamo catodo
contro catodo.
Una diagonale è collegata alla tensione di ingresso, l’altra diagionale all’uscita. Abbiamo due estremi
all’ingresso e due estremi all’uscita.
In alcuni casi il ponte si rappresenta anche in questo modo:

Consideriamo il caso in cui ci troviamo senza condensatore.


Studiamo inizialmente per V2 > 0:
D1 ha il catodo collegato a V2, quindi possiamo ipotizzare che sia OFF.
D2 ha l’anodo collegato a V2, quindi una buona ipotesi è D2 ON.
D3 ha il catodo collegato al – di V2, quindi è plausibile che D3 sia ON.
E infine è plausibile che D4 sia OFF.
Il nostro circuito si trasforma così:

Se tutte le ipotesi sono soddisfatte la corrente scorrerà in questo verso:

Arrivato al corrispondente nodo, essendo D4 OFF e D1 OFF, la corrente non ci può scorrere.
Se scorre in questo modo allora la tensione Vu avrà come valore:

In questa situazione abbiamo Vu = V2. Per le verifiche dobbiamo verificare che la corrente:

Ma dobbiamo anche verificare che D1 sia OFF e D4 sia OFF.


A1 è collegato all’anodo di D3, quindi coindide con A3.
K1 è collegato all’anodo di D2, quindi coincide con A2.
La tensione è pari a:

Analogamente per D4, che ha l’anodo collegato al catodo di D3, mentre il catodo di D4 è collegato al catodo
di D2, l’anodo è collegato al – di V2 e il catodo al + (seguendo i cortocircuiti) e quindi:

Le verifiche sono effettuate e quindi in questo semiperiodo la corrente scorre come abbiamo verificato e
quindi Vu = V2 > 0.
La corrente scorre attraverso il diodo D2 e da questo raggiunge la resistenza di carico, ritornando poi al
trasformatore tramite D3. Quindi il verso della corrente su D2 e D3 è coerente con le ipotesi fatte. La
tensione ai capi di D1 e D4, misurata tra anodo e catodo, risulta pari alla tensione di uscita del
trasformatore cambiata di segno, ed è quindi negativa, confermando l’interdizione.

Se invece V2 < 0, accade l’opposto di quello che abbiamo fatto ora e possiamo ipotizzare che:
D1 ON, D4 ON, D2 OFF, D3 OFF
Il circuito si prefigura come segue (manteniamo le polarità per non avere problemi a distinguere anodo e
catodo):

Sono in conduzione D4 e D1.


La polarità della tensione di uscita, con il giro che abbiamo fatto, stavolta è quella disegnata (essendo K4
colegato al + di Vu).
Quindi ne consegue che:

Nel condo semiperiodo questo è quello che accade.


La corrente transita in questo modo:

Sul carico la corrente passa sempre nella stesso verso, non ho un cambiamento di segno nella corrente,
cambia il diodo su cui passa.

La verifica è analoga a quella fatta precedentemente.


Ho queste due condizioni che sono equivalenti al raddrizzamento a doppia semionda.
Se applico un condensatore ottengo lo stesso andamento di prima, con ripple inferiore a quello che
avevamo inizialmente.
Il primo vantaggio è che il mio cirucito è in grado di effetuare raddrizzamento a doppia semionda senza
usare un trasfromatore particolare ma è sufficiente un trasformatore classico a singolo secondario.
Una piccola complicazione che si ha è che il sistema deve usare un circuito con 4 diodi anzi che 2, anche se
esistono gia dispositivi integrati che contengono 4 diodi integrati.
Questi diodi adesso hanno un PIV più piccolo:

Questo perchè VA1K1 e VA4K4 nel caso 1 e 4 interdetti hanno un valore pari a -V2, quindi il caso peggiore
se: V2 = VMsin(wt)
è pari proprio a VM in modulo. Quindi sia nel primo semiperiodo che nel secondo abbiamo questa
condizione verificata sia in presenza che in assenza del condensatore.
I diodi quindi sono di più ma devono supportare una tensione inevrsa che è la meta rispetto a quella che
dovevano sopportare nel caso di raddrizzamento a doppia semionda.
Uno svantaggio è che qui i diodi sono diventati dei cortociruciti perché abbiamo usato il modello del diodo
ideale, se usiamo un genertaore di tensione con valore pari a Vg quindi abbiamo tra l’ingresso e l’uscita due
generatori in serie, la tensione di uscita sarà:
Vu = V2 - 2Vg
La tensione di uscita si abbasa di -2Vg e anche quell’intervallo di inserzione e di anticipo dello spegnimento
è dato da, quando calcoliamo l’arcoseno, abbiamo l’espressione data da arcsin 2Vg / VM ecc.
Se VM non è trascurabile abbiamo una caduta di 2 Vg.

Confronto tra le configurazioni:

Il rettificatore semplice senza condensatore ha un PIV pari a VM e una perdita di segnale dovuta ai diodi
solo pari a Vy avendo un solo diodo, ma se ci mettiamo un condensatore visto che questo tiene a
mantenere il valore di Vm e il diodo è in serie tra l’ingresso e l’uscita il PIV diventa pari a 2VM, una tensione
più alta ma abbiamo la stessa perdita.
Nel raddrizzatore a doppia semionda con un trasformatore a presa centrale abbiamo PIV = 2VM, dovuto al
fatto che uso la presa centrale il PIV aumenta ma la perdita è sempre pari a Vg perché per un semiperiodo
utilizzo un solo diodo alla volta.
Nel raddrizzatore a ponte di Graetz, ho il grosso vantaggio di usare un trasformatore semplice quindi
ottengo un PIV solo pari a Vm, perché i diodi in inversa hanno una tensione massima pari a Vm, ma se Vg
non è trascurabile la perdita che ho in questo caso è pari a 2Vg.

Circuiti con diodo Zener


Vediamo alcune applicaizoni dei circuiti che utilizzano il diodo zener, diodi volutamente costruiti in modo
tale che la tensione di breakdown è di piccola entità, ovvero che fanno in modo che il fenomeno accada in
tensioni in modulo mto più piccole rispetto alle tensioni tradizionali.
I circuiti in cui vengono impiegati i diodi zener sono quei circuiti in cui si vuole avere una tensione di
riferimento.

Vedremo come usare le sue proprietà per realizzare in modo semplice un regolatore di tensione, che
fornisce tensione costante al variare del carico a esso collegato.
Usare il diodo zener è il metodo più semplice per ottenere una tensione di riferimento di un valore
particolare.
Se voglio utilizzare un diodo zener come riferimento di tensione devo farlo funzionare nella zona di
breakdown, quindi con Id < 0.

Queste sono le caratteristiche del nostro diodo, funziona con questa tensione e quindi la tensione Vd
rispetto al quale andiamo sempre a disegnare le caratteristiche di un diodo è quella anodo-catodo, la
corrente Id scorre da anodo verso catodo, la tensione di riferimento del diodo zener viene tipicamente
indicata invece con quella polarità.
Se compriamo quindi un diodo con tensione di riferimenti pari Vz = 5.6V allora ciò significa che la tensione
tra anodo e catodo è pari -5.6 V.

Un metodo che possiamo adottare per risolevere questo circuito, come abbiamo fatto con il diodo, infatti
anche il diodo zener ha la sua caratteristica non lineare, è il metodo della retta di carico:

Prendiamo l’equazione alla maglia e le caratteristiche del dispositivo.


Scegliamo per comodità Id già nel verso giusto, che scorre da anodo verso catodo.
Quindi sul piano ID/VD la retta di carico è una retta con pendenza negativa:
Abbiamo nel grafico la caratteristica del diodo zener e la retta di carico avrà l’intercetta con l’asse Id = 0 che
ha Vd = -Vs, mentre ò’altra intercetta è data da Vd = 0, Id = -Vs /R.
Il punto di lavoto sarà l’intercetta fra le due rette, che mi darà una corrente Iz, che sta scorrendo nel
circuito, circa pari a -1mA.
Al variare di Vs o al variare della corrente cosa succede alla corrente che scorre nel circuito?
Al variare di R avrò un fascio di rette uscenti dal punto -Vs.
Il punto di lavoro cambierà ma cambia la corrente che scorre mentre la tensione ai capi del diozo zener
continua a essere Vz, e ciò accadrà per questo tratto che posso considerare in prima approssimazione
verticale. Non è esattamente verrticale ma e una buona approssimazione.

La tensione ai capi del mio diodo zener non cambierà pur cambiando la tensione che vi scorre.
Il diodo zener è un dispositivo che oportunatamente polarizzato, mantenendo una corrente negativa che vi
scorre attraverso, la tensione ai suoi capi pur variando la corrente rimane costante e quindi ha valore Vz in
modulo che possiamo utilizzare come tensione di riferimento.

Anche per via analitica possiamo risolvere questo problema.


In realtà il diodo zener è un dispositivo che se funziona in breakdown, la caratteristica verticale corrisponde
a un generatore di tensione, il diodo zener ha un modello in cui ho 3 possibili stati di funzionamento, ha
una zona di funzionamento in più.
Ho un generatore di tensione pari a Vg se polarizzato direttamente con VAK >= VG.
Se polarizzato invece per tensioni maggiori di -Vz e minori di Vg ho i = 0 e quindi un circuito aperto.
Invece, per tensioni minori -Vz il diodo diventa un generatore di tensione di polarità opposta rispetto a
quando era diretta.

Nel caso in cui funzioni in zona zener, possiamo sostitutire il diodo con un generatore tra anodo a catodo
con tensione pari -Vz e quindi con una tensione tra catodo e anodo pari a Vz.

Se andiamo a sostituire:

Abbiamo anche verificato l’ipotesi, essendo Id < 0, sulla la zona Zener.


Quindi la soluzione del mio circuito è quella sia trovata graficamente che analiticamente.
Posso studiare il diodo zener nello stesso modo visto con i diodi con una zona di funzionamento in più,
ovvero quando si trova polarizzato in inversa a una tensione tale da andare in breakdown.

Regolatore di tensione con diodo Zener


Studiamo ora un circuito di regolazione, la cui funzione è quella di mantenere costante la tensione d’uscita.
Il più semplice circuito di regolazione che si possa concepire è rappresentato da un resistore e un diodo
Zener. Posso utilizzare il fatto che il diodo zener mantiene una tensione costante ai suoi capi, pari a Vz, al
variare della corrente e posso realizzare il seguente circuito:

Questo circuito presenta un trasformatore, un ponte di Grenz, e un condensatore come prima ma stavolta
tra il condensatore e il mio carico RL, vado a interporre un circuito costituito da una resistenza R e un diodo
zener, il nostro regolatore che serve per mantenere tensione costante al variare per esempio del carico RL,
è quindi costitutio da una resistenza e un diodo zener.
Indichiamo le due correnti IR e IZ (che sarebbe uguale a -ID), tanto il verso delle correnti posso sceglierlo in
modo arbitrario, e quindi scelgo la corrente che va da catodo verso anodo.
Per come è realizzato il circuito se Iz scorre ed è positiva, il diodo è polarizzato in modo tale da essere in
breakdown e quindi in modo da fornire una tensione ai suoi capi con la polarità indicata in figura, positiva
dal catodo risoetto all’anodo

E quindi la tensione che fornisco al carico è uguale a quella del diodo zener, che rimane costante anche al
variare della corrente.

Però devo essere sicuro che valga la condizione Iz > 0. Per quanto riguarda Iz:

Se funziona tutto correttamente posso sostituire Il mio diodo zener con un generatore e IR sarà data dalla
differenza di potenziale ai suoi capi diviso R, mentre IL è la corrente che scorre nel verso in figura sul nostro
carico RL. La corrente Iz sarà quindi data, facendo il bilancio al nodo corrispondente:

Finchè Iz > 0 il diodo zener funzionerà correttamente e la tensione di uscita risulterà essere pari a Vz.
La condizione che deve essere rispettata è che quindi:
Al variare di RL mi cambierà IL, la corrente IR possiamo considerarla invece per il momento costante,
dipende solo da elementi interni al circuito, Va dipende infatti dal rapporto spire del trasformatore quindi
di fatto circa pari alla tensione di picco presene sul secondario, Vz l’ho scelta con il diodo zener e R è la mia
resistenza interna.
Questa corrente una parte va nel diodo zener e una parte nel carico.
Al carico posso attacare valori diversi di RL fino a quando la corrente assorbita dal carico è minore di IR,
vorrà dire che una parte di IR scorrerà nel diodo zener e tutto funzionerà correttamente.
Il limite lo avremo quando metterò un carico troppo picolo, aumento notevolemebte la quantità di IL e
tutta la Iz mi si azzera, tutta la IR mi va a scorrere solo nel carico RL, e se tutta la corrente scorre nel carico
RL il diodo smette di funzionare, in prima approssimazione.
Vedremo in laboratorio che il limite di funzionamento del diodo zener non è proprio 0, ci deve scorrere una
corrente Iz minima un po’ più grande di zero, Izk, corrente minima che deve scorrere nel diozo zener
affinche si abbia una tensione pari ai suoi capi a Vz, però per semplificare i calcoli supponiamo che sia
questa condizione limite sia Iz = 0.
La condizione limite (massima corrente che posso fornire al carico) è quando tutta la corrente mi va a fluire
nel carico:

Posso cambiare RL finchè Vz / RL non sarà uguale a Va-Vz/R. Questo è il valore massimo che posso fornire al
mio carico.
Se è sufficiente okay, se volessi una corrente più grande sul mio carico a parità di tensione, non posso
cambiare Vz e quindi l’unica cosa che posso fare è diminuire R.
Ma ho un altro limite di funzionamento, non solo devo garantire che la Iz sia maggiore di 0 ma devo stare
attento al fatto che i diodi non posso sopportare un prodotto tensione corrrente troppo elevato ai loro capi.
Ho una limitazione in potenza, i diodi, come tutti i componenti quindi anche i diodi zener, hanno un valore
massimo del prodotto Vz * Iz che sono in grado da tollerare, oltre il quale i diodi di bruciano.
Non posso aumentare troppo IR, perche quando il carico non è collegato al regolatore di tensione, fissata
IR, va tutta a scorrere nel diodo zener.
Quindi quando IL = 0, il carico non c’è e tutta la IZ diventa uguale a IR.

Allora ho un limite della PZmax, data dal prodotto tra la tenzione Vz e la corrente massima, che nel caso
peggiore è quando il carico non è collegato.
Quindi questo valore Izmax non può essere tropo elevato, quando il carico non c’è scorre tutto nel diodo.
Questo circuito può essere usato come regolatore ma con forte limitazione in termini di potenza in grado di
fornire al carico.
Risulta dunque chiaro che un circuito regolatore di questo tipo può essere utilizzato soltanto per carichi di
potenza limitata. Può essere usato come regolatore di tensione se si deve fornire potenze piccole al carico
perchè legata alla potenza massima che il diodo zener può tollerare.
Vedremo come realizzare un regolatore di tensione con potenze maggiori rispetto a queste raggiungibili
con il diodo zener, ha però il vantaggio della semplicità.
Considerando poi il caso in cui Va non è costante ma si ha una tensione di ingresso variabile abbiamo la
seguente situazione.

In termini di funzionamento ideale non cambia molto, se ho rispettato tutti i vincoli legati al funzionamento
nel terzo quadrante, Iz > 0 e i vincoli di potenza per cui il diodo Zener non si rompa, la tensione di uscita
continua a essere pari a Vz.
Si comporta come un buon regolatore, il regolatore di tensione deve fornire una tensione di uscita costante
sia al variare del carico che al variare della tensione di ingresso, con una semplice resistenza e un diodo
Zener.
I valori limite però, ovvero la massima corrente che posso fornire al carico e la potenza massima
sopportabile, assumono un espressione diversa se Va varia da un mininimo a un massimo.

La ILMAX quando andiamo a considerare un dispositivo e leggiamo nei dati di targa un valore di ILMAX,
posiamo dire che il regolatore è in gradio di fornire una corrente al carico fino a quel valore in qualunque
condizione di funzionamento. Se Va cambia, la condizione del worst case è quella in cui ho Vamin. La
corrente massima devo essere in grado di fornirla in qualunque condizione.
Se con VAmin viene 2 mA siamo sempre in grado di farlo.

Cosa devo sostituire in PXmax? Qui devo considerare il valore massimo, devo considerare il caso peggiore e
garantire che il diodo non si bruci.

Il limite per la corrente massima fornibile al carico senza che il diodo Zener esca dalla zona di breakdown
sarà comunque rappresentato da (VAmin −VZ)/R. Mentre la dissipazione massima sul diodo sarà data da
(VAmax −VZ)VZ/R.
Modello del diodo per piccoli segnali
I modelli che abbiamo sviluppato (a caduta costante, del diodo ideale e quello lineare a tratti) sono detti
modelli per grandi segnali.
Rappresentano tutta la carateristica nel suo insieme e vanno utilizzati quando un segnale è
sufficientemente grande da andare a interessare una porzione molto grande della caratteristica.
Vediamo ora la necessità di avere un modello che va a operare su un piccolo intervallo della caratteristica.

Ho un circuito teorico in figura (infatti quando si inserisce un diodo attento a mettere sempre una
resistenza) in cui ho segnale un costante Vd con una piccola variazione attorno a questo valore costante.
Il segnale che vado a considerare non mi va a considerare una larga porzione delle mie caratteristiche.
Ho in alcuni casi la necessità di avere diodi che vanno a trattare un segnale molto più piccolo, un segnale
che per esempio è una piccola variazione intorno al punto di riposo (Q), in cui abbiamo Id e Vd che
rappresentano il mio punto di riposo, che è il punto di funzionamento del mio diodo quando la variazione
temporale risulta essere nulla.
Se ipotizzo che la tensione complessiva la posso scrivere come tensione costante più la tensione variabile e
nel caso in cui vd(t) = 0, quando non ho la parte variabile, ho il punto di lavoro dato da:

Il punto di lavoro lo posso determinare utilizzando modelli per grandi segnali.


Possiamo con una buona approsimazione ottenere questi due valori.
Quando vd(t) != 0, applicando una piccola variazione, per esempio della tensione ai capi del diodo, i modelli
per grandi segnali sono inutili, mi darebbero lo stesso valore. Il mio modello per grandi segnali mi dice che
tutta la tratta di caratteristica è verticale, quindi la VQ non può variare e anche se usassi il modello lineare a
tratti otterei una risoluzione scarsa. Non riesco a trattare questa situazione coi modelli visti finora.
Mi piacerebbe disporre di un modello che ci consenta di fare una trattazione simile a quella fatta per grandi
segnali, data una variaizone piccola del segnale di ingresso sia in grado di trovare quanto varia la corrente
id(t) e la tensione vd(t) nel tempo.
Posso introdurre un nuovo modello, il modello per piccoli segnali, che mi consenta di andare a studiare il
comportamento del circuito quando è presente un segnale che varia nel tempo di entità piccola (vedremo
quanto piccolo deve essere).
Graficamente lo potrei anche fare, potrei disegnare la mia retta di carico e trovare il punto di lavoro, dopo
di chè se VD cambia, posso trovare graficamente come varia Id, il punto di lavoro si sposterà lungo la
caratteristica.
Ma questa soluzione grafica è di difficile implementazione.
Numericamente lo posso fare, ho la caratteristica in forma esponenziale, però voglio trovare un metodo
approssimato che mi consenta di risolvere questo cirucito in modo semplice e immediato.
Il mio problema è che ID = f(VD) è una caratteristica esponenziale e ciò mi impedisce di risolvere il
problema, ma se mi sposto poco dal mio punto di lavoro, questo tratto di espoennziale, se piccolo, lo posso
approssimare con una retta, la retta tangente nel punto Q, facendo un’approssimazione lineare della mia
caratteristica nell’intorno del punto di lavoro Q.
Il dispositivo che ha come caratteristica un legame lineare tra la corrente e la tensione è una resistenza.
Possiamo già intuire che il modello per piccoli segnali di un diodo è sostanzialmente una resistenza, detta
resistenza differenziale perchè varia in funzione del punto di lavoro. Se il punto di lavoro si sposta in una
un’altra zona, la retta tangente la devo andare a fare in un'altra zona, avrò rette tangenti diverse.
Questo valore di reistenza con cui andrò a schematizzare il comportamento del diodo non sarà unico per
ogni punto di lavoro ma stabilito il punto di lavoro questo valore sarà unico e potrò sostituire il mio diodo
con la resistenza equivalente e risolvere il circuito banalmente utilizzando le regole che conosco per la
risoluzione di circuiti lineari.
Per quanto riguarda le notazioni, abbiamo che le tensioni costanti vengono indicate con la lettera maiuscola
e pedice maiuscolo (VD), le tensioni variabili nel temp o invece con lettera minuscola e pedice minuscolo
(vd) e la tensione istantanea, la grandezza totale, viene indicata con lettera minuscola e pedice maiuscolo
(vD).
Attenzione al fatto che le caratteristiche sono date da valori complessivi, sugli assi del grafico abbiamo vD(t)
e iD(t) tensione complessiva e corrente complessiva ai capi del nostro diodo, il segnale è pero suddivisibile
in due componenti, una costante e una variabile.

Se applichiamo una piccola varizione nell’intorno del punto di riposo il comportamento del dispsoiitivo può
essere risolto numericamente, graficamente oppure si cerca un metodo approssimato. Se noi ci spostiamo
poco dal punto di lavoro della nostra caratteristica, in questo piccolo intervallo possiamo fare
un’approssimazione dell’esponenziale con una retta, un’aprossimazione del primo ordine, sostituendo
l’esponenziale con un retta tangente al nostro punto di lavoro.
Questa approssimazione sarà tanto migliore quanto piccole saranno le variazioni intorno al punto di lavoro.
Utilizzando una retta abbiamo un legame lineare tra corrente e tensione nell’intorno del punto di lavoro e
quindi si realizza una relazione di questo tipo:

con gd detta conduttanza differenziale.

e rd detta resistenza differenziale.


Si usa d per ricordarci che questo valore è dipendentente dal particolare punto di lavoro che andiamo a
utilizzare. Se ci spostiamo la retta avrà una pendenza diversa (gd).

Prendiamo un circuito con due generatori, uno di tensione costante (VAA), con in serie un generatore di
segnale, collegati con una resistenza R al nostro diodo, di cui conosciamo il legame tra la corrente
complessiva che scorre attraverso il diodo e la tensione complessiva ai suoi capi.
Nel nostro caso f è un esponenziale se usiamo il modello di Shoeclkley.
Scriviamo l’equaizone alla maglia:

Ho due incognite, devo determinare iD(t) e vD(t) ma ho un’altra relazione data dal nostro modello
esponenziale.
Questo sistema o lo risolvo numericamente o devo trovare una soluazione approssimata.
Facciamo l’ipotesi che la sollecitazione che andiamo a imprimere sia composta da una componente
costante e una variabile e quindi possiamo fare l’ipotesi che anche la tensione comeplessiva di un
qualunque componente del circuito (quindi anche il diodo) sarà data dalla somma di due componenti, una
costante e una variabile nel tempo. E lo stesso vale per la corrente.

Dove la parte costante è la soluzione del mio circuito quando agisce solo il generatore di tensione costante.
VDQ e IDQ sono la soluazione per vs(t) = 0.
Mentre se accendo il mio generatore di segnale, alle due componenti costanti si aggiunge una componente
variabile. Possiamo determinare VDQ e IDQ che sono la soluzione quando ho solo un generatore costante.
La soluazione si riduce a:

O lo risolvo numericamente o lo risolvo con il modello a grandi segnali (modello ideale, modello a caduta
costante o il modello lineare a tratti).

Disattivo tutti i generatori di segnale (essendo di tensione quello disattivato avrò un cortocircuito) e risolvo
il circuito. Usando i modelli per grandi segnali so risolverlo.

A questo punto l’equazione complessiva si trasforma come segue:

Se andiamo adesso a sostituire la seconda eqauzione nella prima, andiamo a ottenere:

dove abbiamo un’equazione che lega tra di loro tutte le componenti variabili. Quella dei generatori
indipendenti a quelle delle mie incognite.
Le altre due incognite da determinare, vd e id, le possiamo determinare risolvendo un circuito che soddisfa
questa eqauzione. Abbiamo una corrente che scorre e una tensione ai capi del mio dispositivo, il
generatore di segnale. Ho il mio dispositivo dove scorre una corrente variabili id e una tensione vd.
Ora dobbiamo risolvere questo circuito dove ho due incognite, che mi serve per risolvere il legame tra id e
vd. Ma qui abbiamo:

Non posso usare in questo caso l’esponezniale e quindi i modelli usati per grandi segnali.
Questo perché sto andando a considerare l’effetto soltanto dei i generatori di segnale e soltanto intorno al
punto di lavoro, mi serve una funzione che lega tensione e corrente nell’intorno del punto di lavoro.
Non posso usare questa relazione perché questa relazione va a darmi un legame tra id e vd nell’intorno
dello 0, mi lega id e vd ma queste non sono tensioni e corrente complessiva ai capi del mio dispositivo ma è
solo la componente variabile.

Se prendiamo infatti la nostra caratteristica e supponendo che il nostro segnale vs(t) sia per esempio
sinusoidale:
Se utilizzo la relazione con l’esponenziale vado a utilizzare un legame (trascurando R) è come se andassi a
considerare il mio segnale così, nell’intorno dello 0:
Quando vs != 0 avrò un andmaneto della corrente un comportamento del dispositivo nell’intorno
dell’origine:

Sostituendo id e vd al posto di iD e vD studierei il comportamento nell’intorno dell’origine ma noi le


variazioni le andiamo ad applicare nell’intorno del punto di lavoro e non nell’intorno dell’origine.
La funzione f studia nell’intorno del’origine e non nell’intorno del punto di riposo.

La funzione f1 è la linearizzazione della f nell’intorno del punto di lavoro.


Sfruttiamo l’ipotesi che il segnale di variazioni siano piccole all’intorno del punto di lavoro:

La corrente complessiva sarà data da una parte costante e una parte variabile, che insieme sono legate con
la tensione complessiva dalla dunzione f del modello di Shoeckley.

Posso allora fare uno sviluppo in serie di taylor della funzione f nell’intorno del punto di riposo.
Supponiamo di operare intorno a una tensione di riposo VQ e di essere interessati alle variazioni intorno a
tale punto di riposo. In questo caso possiamo sviluppare in serie di Taylor la funzione f(v) intorno al punto
VQ:
Dato l’esponenziale ne faccio una trattazione di questo tipo, calcolo l’espoenziale nel valore del punto di
lavoro e prendo le derivate.
Se sono nell’ipotesi descrittra sopra, posso trascurare i termini superiori al primo ordine, compio
l’approssimazione e quindi la mia corrente complessiva sarà data da una componente continua e variabile,
e sarà approssimabile come segue:

Inoltre IDQ sarà la soluzione del mio sistema.


Se mettiamo insieme le due quantità e semplifichiamo, ottengo da questa relazione che id(t) sarà pari a:

E quella sarà la mia f1, è il legame che cercavo tra id(t) e vd(t). Ma cos’è la derivata di f?

Se lavoro nell’intorno del punto di riposo la curva esponenziale la posso esprimere come una retta che
significa potersi fermare al primo ordine dello sviluppo di taylor.

Ho un rapporto tra una corrente e una tensione, ho una conduttanza differenziale, ottenuta dalla
differenziazione della corrente rispetto alla tensione calcolata nel punto di riposo. Viene indicata con la
lettera minuscola.
L’aprossimazione al primo ordine ci consente di dire che il legame tra la corrente variabile e la tensione che
scorre ai capi del dispositivo è una conduttanza.

Il che ci consente di dire:

Ho risolto il mio problema, ho ottenuto un modello approssimato matematicamente giustificato.


Se facciamo un’analisi del comprotamento del dispositivo nell’intorno del punto di risposo e se siamo in
grado di trascurare tutti i termini di ordine superiore al primo perche le variazioni sono piccole, allora il
legame tra tensione e corrente è un semplice legame lineare quindi dato da una resistenza differenziale.
A questo punto quella f1 che non conoscevamo ora l’abbiamo determinata, il circuito che dobbiamo andare
a risolvere ha due incognite ma anche due equazioni, l’equazione alla maglia e l’equazione del modello per
piccoli segnali.

Ricavo il circuito da quello iniziale disattivando i generatori indipendenti, mantenendo i generatori di


segnale, tutti i vari componenti circuitali e prendo il mio dispositivo non lineare e lo sostituisco col suo
modello per piccoli segnali, una semplice resistenza differenziale.
Le componenti continue delle mie incognite le ottengo con il circuito in cui agoscono soltanto i generatori di
tensione e di corrente continua e utilizzo per il diodo il modello per grandi segnali.
Le componenti variabili le ottengo da un circuito i cui agiscpono soltanto i generatori di segnali, di corrente
e di tensione, e sostituisco il mio diodo con il suo modello per piccoli segnali, nel diodo una semplice
resistenza.

Calcolo della resistenza differenziale


Qual è il valore di resistenza da inserire? Come calcolo rd?
Graficamente lo potrei fare avendo a disposizione la curva esponenziale, calcolando la retta tangente, poi il
suo coefficiente angolare (la conduttanza differenziale) e prendendone il reciproco.
Ma dovrei avere le caratteristiche di quel particolare dispositivo ma visto che abbiamo un modello apposito
vediamo cosa significa piccolo segnale.
Le variazioni del segnale sul diodo sono molto piu piccole del valore della tensione ai suoi capi di fronte a
tensioni continue.
Abbiamo deciso di polarizare il diodo direttamente, cosi da fare lavorare il diodo in punto di lavoro in cui
passa una corrente di lavoro diversa da 0.

Possiamo allora calcolare gd analiticamente:

dove la derivata è calcolata nel punto di riposo.


Valutando Is *exp(vd/nVt) nel punto di riposo ho proprio la IDQ.
Quindi se il nostro diodo è polarizato in un punto di lavoro in cui posso trascurare l’unità, abbiamo:

E’ quindi pari al rapporto tra la tensione termica (@300 K = 26mV) per il fattore eta fornito dal costruttore
diviso la corrente che scorre nel mio diodo nel punto di lavoro, calcolata nel modello per grandi segnali.
Una volta risolto il circuito quando agiscono i genratori indiepdenti costanti, quando ho determinato il
punto di risposo del mio dispositivo allora la resistenza differenziale sarà nota.
La resistenza differenziale è da qui evidente che dipende dal punto di riposo, tiene conto del fatto che la
resistenza differenziale è diversa per ciascun punto di riposo.
Da un punto di vista puramente grafico quello che abbiamo fatto è prendere la caratteristica del diodo,
abbiamo determinato il punto di lavoro Q (VDQ e IDQ) e stabilito questo, possiamo determinare
direttamente quella che è la nostra resistenza differenziale.
E’ l’inverso della pendenza della retta tangente in Q.

Limiti di validità del modello


Vediamo i limiti di validità del modello, ovvero fino a quando lo poso utilizzare.
Analiticamente abbiamo trascurato i termini di ordine superiore al primo, quindi lo posso fare fin quando il
temrine del primo ordine è molto più grande del termine di secondo ordine.
Sappiamo infatti che nello sviluppo si ha che crescendo l’ordine i termini sono sempre piu piccoli, allora se
la relazione sarà verificata per primo e secondo ordine a maggior ragione lo sarà per quelli di ordine
superiore.

Ma la derivata di f rispetto a v è la nostra conduttanza differenziale che moltiplicata per vd deve essere
molto maggiore del termine a destra.
Per calcolare la derivata seconda deriviamo due volte.
Posso semplificare i termini IDQ/nVT e vd(t) e ottenere:

Il temrine del primo ordine sarà molto maggiore del termine del secondo ordine se le variazioni di tensione
ai capi del diodo saranno molto minori di 2nVt.
Se prendiamo per esempio:

Potremo considerare per molto minore che sarà accettabile avere:

Questa condizione è applicabile alla vd(t), il mio modello per piccoli segnali è applicabile quando le
variazioni di tensione che ho ai capi del mio diodo nell’intorno del punto di lavoro sono inferiori a 5mV,
approssimatamente.
Dovrei andre a risolvere il circuito e poi fare una verifica finale, se la tensione che ho ottenuto ai capi del
diodo è molto minore a questo valore, allora ho una buona soluzione, altrimenti il modello per piccoli
segnali in quel caso non poteva essere utilizzato.
Nella realtà se il modello per piccoli segnali non è utilizzabile a quel punto non ho altri modelli approssimati
semplici, mi conviene utilizzare il simulatore.
Le altre variazioni di tensione presenti nel circuito possono anche essere di valore più grande, qui si parla di
variazioni della tensione attorno al punto di lavoro ai capi del nostro diodo modellizzato con una resistenza
differenziale.

Esempio di applicazione del modello per piccoli segnali


Vediamo come risolvere un circuito di questo tipo.
Supponiamo di avere questo circuito, che puo essere l’equivalente di Thevenin, con una variazione di
segnale sinusoidale.
Il comportamento di Vtot sarà di questo tipo:

All’intorno di VAA abbiamo la sinusoide che arriverà al valore VAA + Vm e al valore VAA – Vm, VAA
l’abbiamo presa positiva così da polarizzare direttamenbte il diodo.
Il segnale complesivo è dato da questa oscillazione nell’intorno del mio punto di lavoro.
1) Poniamo quindi vs(t) = 0, disattivando i generatori di segnale variabili, tutti i generatori di
segnale variabili nel tempo vengono disattivati.
Il circuito diventa come segue:

2) Il diodo è sostituito dal suo modello per grandi segnali. Se utilizziamo il modello a caduta
costante, viene sostituito con un genertore di valore Vy tra anodo e catodo e risolviamo il
circuito:

RIsolvo il circuito e ottengo il valore di IDQ. VDQ l’ho trovata, IDQ la determino con questa espressione e
ora faccio la verifica del diodo.
3) Noto il punto di lavoro (IDQ e VDQ), determino i parametri differenziali, ovvero il valore di
rd.

4) Disattivo i generatori costanti, pongo VAA = 0, il circuito diventa come segue, e al posto del
diodo tra anodo e catodo metto la resistenza differenziale che ho valutato dopo aver
determinato il punto di lavoro.
5) Per analizzare il circuito per la variazioni (dispositivo sostituito dal loro modello per piccoli
segnali) devo prima determinare rd e quindi solo dopo aver determinato il valore della
corrente in condizioni di risposo che scorre sul mio diodo.

6) Quanto vale la corrente complessiva che scorre nel mio circuito iD(t)? E’ data dalla somma
della soluzione del circuito nel punto di lavoro più la soluzione fornita dal circuito delle
variazioni.

La tensione ai capi del diodo sarà pari alla somma di Vg più la rd * id, quindi si può determinare anche
l’espressione della tensione ai capi del diodo.

Se ho un segnale costante con sovrapposto una oscillazione, se sufficientemente piccola rispetto al


generatore di tensione costante, così da usare il modello per piccoli segnali, posso analizzare due circuiti.
Il circuito per punto di riposo (Q), quando non ho un segnale variabile nel tempo, e il circuito per le
variazioni, quando ho le variazioni del segnale di ingresso e vado a determinare le variazioni delle corrente
nei rami e delle tensioni nei nodi.

Abbiamo ora tutti gli strumenti per analizzare un qualsiasi circuito.


Il modello per grandi segnali può essere usato quando abbiamo dei segnali costanti o che variano nel
tempo con delle variazioni grandi, tali da andare a interessare tutta la caratteristica del diodo (come
raddrizzatori a doppia semionda, dove avevo variazioni così grandi da avere col modello a grandi segnali
una buona approssimazione del comportamento del mio circuito). Se ho invece un piccolo segnale
sovrapposto al mio segnale continuo posso usare il modello per piccoli segnali.
Stiamo trascurando anche la presenza di eventuali capacità, stiamo valutando segnali che variano nel
tempo ma non ad elevate frequenze, in realtà associata a una qualunque giunzione dobbiamo ricordarci
che c’è sempre una capacità (come abbiamo visto infatti c’è una zona di svuotamento che abbiamo trattato
come fosse un condensatore).
Se usiamo modelli per piccoli segnali a frequenza elevata dovremmo considerare anche la presenza di una
capacità che tiene conto del fatto che il diodo presenta un certo ritardo di risposta.
Terremo conto della presenza di una capacità solo nel laboratorio.
Transistore bipolare (BJT)
I transistori sono un evoluzione del diodo, che ci permette di controllare il flusso di corrente, e si hanno
introducendo dispositivi a tre terminali (detti anche triodi) in cui abbiamo questo componente a tre
terminali in forma discreta dove il flusso di corrente tra due terminali è controllato da un segnale (di
tensione o di corrente) applicato al terzo terminale.
Il comportamento del transistore bipolare può essere considerato come quello di un generatore di corrente
controllato in corrente, dispositivo in cui ho una corrente controllata da un’altra corrente che scorre in un
altro terminale.

Può essere schematizzato dal punto di vista formale come un elemento a due porte, con 4 terminali, che
poi si riducono a tre perchè nella maggior parte dei casi il quarto terminale è a comune tra la porta di
ingresso e quella di uscita e si trasforma in un dispositivo a 3 terminali.
Prendiamo inizialmente in considerazione il generatore di corrente controllato in corrente, perché questo
può essere approssimato tramite il transistore bipolare a giunzione (Bipolar Junction Transistor, BJT). In
forma ideale tale generatore può essere rappresentato con il circuito equivalente che segue.
Un circuito equivalente di un generatore di corrente controllato in corrente è il seguente:

Ho un terminale a comune tra ingresso e uscita.


La porta di ingresso è un cortocircuito, la porta di uscita è un generatore controllato (rombo generatore
dipendente, cerchio generatore indipendente) con al suo interno una freccia (se di corrente), dove òa
corrente che fornisce i2 è legata alla corrente i1 da un parametro che andremo a definire.
Questo è lo schema di base di un generatore di corrente controllato in corrente, ideale, perché ho supposto
che la porta di ingresso sia un cortocircuito e di uscita un generatore di corrente controllato in corrente
ideale.

Il rapporto tra le correnti di uscita e di ingresso è detto guadagno di corrente:


Il rapporto tra tensione di uscita ai capi del mio dispositivo applicata al carico e il generatore di segnale è
invece detto guadagno di tensione.

i1 = vs/Rs visto che la porta di ingresso è un cortocircuito.


Non abbiamo riportato il guadagno v2/v1 perché v1 = 0 quindi avremo un valore infinito, mentre se lo
esprimo come v2/vs ha un valore finito.
Per il guadagno di corrente si possono verificare due casi:

dove consideriamo il guadagno di corrente in modulo.


Definiti i nodi su cui prendiamo le tensioni anche sul guadagno di tensione possiamo avere due casi:

dove consideriamo il guadagno di tensione in modulo.


Quello che però distingue un transistore bipolare dal diodo e da tutti i componenti circuitali visti finora è
una caratteristica legata al guadagno di potenza, rapporto tra la potenza di uscita e di ingresso.
Valutiamo la potenza sul carico (di uscita):

La corrente sul carico scorre dal – verso il + infatti.


La potenza di ingresso è invece quella erogata dal generatore:

Con la corrente che scorre dal – verso il +.


Si definisce allora:
visto che:

Questo è il nostro guadagno di potenza.


La potenza di uscita è calcolata sul carico, mentre quella d’ingresso è erogata dal generatore di segnale.

Il mio dispositivo è stato in grado di fornire in questo caso un amplificazione di potenza, i componenti che
sono in grado di fornire amplificazione di potenza sono detti componenti attivi.
I componenti elettronici sono divisi in componenti passivi, che compiono elaborazioni del segnale ma non
sono in grado di fornire un’amplificazione della potenza (R, C, L, Diodi), non sono in grado di fornire al
carico una potenza maggiore di quella fornita dal generatore di segnale:

Tipicamente inoltre hanno delle perdite, quindi questo valore è sempre strettamente minore di 1.
I componenti in grado di farlo sono invece detti attivi. Posso fornire un amplificazione di corrente o un
amplificazione di tensione, non è necessario che le forniscono entrambe, ma il loro prodotto è maggiore di
1 in questo caso.
Lo vediamo dal prodotto A * Av, riescono a fornire sul carico una potenza maggiore della potenza di
ingresso, ma dove la hanno presa questa potenza?
Come fanno a fornire una potenza più grande di quella fornita dal generatore di segnale?
Sono in grado di farlo perché sono collegati all’alimentazione (generatore di tensione costante) e prelevano
una parte di potenza da parte di questi generatori di tensione costanti e la forniscono al carico.
Sono in grado di prelevare energia sia dal generatore di segnale che dal generatore di tensione costante e
sono in grado di amplificare il segnale in potenza fornendo al carico un segnale con potenza maggiore
perchè trasferiscono parte di potenza dal generatore di tensione costante (l’alimentazione) al carico.
Prelevano energia e la forniscono sul carico amplificando il segnale.
Vediamo come sono fatte le caratteristiche di un generatore di corrente costante.
Una descrizione molto utile del comportamento di un generatore comandato si ottiene tramite la
rappresentazione grafica delle caratteristiche di ingresso e di uscita, sotto la forma di famiglie di curve. Le
caratteristiche di ingresso vengono tracciate sul piano v1-i1 e rappresentano il legame tra tali grandezze in
funzione di una delle grandezze di uscita.
Si distinguono due tipi di caratteristiche.
Che sono la corrente della porta di ingresso in funzione della tensione della porta di ingresso e uno dei due
parametri della porta di uscita.
Nel caso particolarmente semplice considerato non ha significato tracciare le caratteristiche di ingresso,
dato che v1 è sempre nulla. In questo caso non lo andiamo a esprimere perché abbiamo un cortocircuito
(v1 = 0) ma nel caso di transistori bipolari, essendo generatori di corrente non ideali, andremo a esplicitare
questa relazione:

Legame tra la corrente di uscita e della tensione di uscita in funzione di un parametro di ingresso, si può
scegliere i1 o v1.
Riportando i2 in funzione della v2 per vari valori della corrente di ingresso abbiamo:

Le caratteristiche per questo generatore ideale non sono altro che delle rette orizzontali, perché data i15 il
valore della corrente di uscita è A*i15.
La corrente risulta essere costante e proporzionale alla corrente di ingresso, e la i2 corrispondente sarà
data dalla corrente di controllo * il coefficiente A.
Le caratteristiche di uscita vengono rappresentate sul piano v2-i2, in funzione di una delle due grandezze di
ingresso, in questo caso la i1 (per un numero discreto di valori della i1). Per il generatore di corrente ideale
controllato in corrente, le caratteristiche di uscita sono molto semplici: in corrispondenza di ogni valore
della i1 si ha una retta parallela all’asse delle ascisse di valore Ai1, visto che la corrente di uscita è
proporzionale a i1 e indipendente dal valore di v2.
Ipotizzando A costante per qualunque valore di v2 si ha questo comportamento.
Questa è la caratteristica di un generatore di corrente controllato in corrente ideale.
Se un dispositivo di questo tipo fornisce un valore di A > 0, guadagno di corrente, ci consente di avere un
amplificazione di segnale.
Se prendiamo in considerazione un circuito come quello di seguito rappresentato, in cui sull’uscita è
collegato un generatore di tensione VAA tramite un resistore R2, possiamo andare a risolverlo con un
metodo grafico come la retta di carico.
Possiamo indicare la relazione tra v2 e i2 imposta dalla rete esterna per mezzo di una retta di carico, che
può essere riportata sul piano delle caratteristiche. Questa mi identifica il mio punto di lavoro (V2Q, I2Q)
nell’ipotesi che i1 sia pari a i13.
Anche in questo caso possiamo andare poi a disegnare la retta di carico graficamente nelle caratteristiche,
sia per caratteristiche di ingresso che quelle uscita e graficamente posso vedere che se cambia la corrente
di ingresso (i1) mi andrà a cambiare il mio punto di lavoro sulla mia retta di carico, perché fissata da Vaa/RL
e Vaa, e quindi avrò una corrispondente variazione della tensione v2 di uscita.
Rappresentiamo quindi la corrente i1 in funzione del tempo a lato della caratteristica di uscita e, per ogni
valore di i1, andiamo a individuare la corrispondente caratteristica I2–V2 e la relativa intersezione con la
retta di carico. In questo modo otteniamo il valore all’istante corrispondente della v2 e lo possiamo
riportare in un grafico posto sotto alle caratteristiche di uscita.

Se consideriamo la corrente i1 di controllo non costante ma variabile nel tempo, spostandosi tra questi tre
valori in figura:

Il punto di lavoro si sposterà dinamicamente lungo la retta di carico.


Dobbiamo tenere conto che la i14 verrà amplificata di un fattore A (Ai14) e la V2 cambierà di valore dovuta
al fatto che sulla resistenza RL passerà una corrente non più costante pari a A*i13 ma passerà una corrente
data da A volte la variazione di i1. Quando aumenta, la tensione v2 diminuisce, arriva a un minimo per poi
ri-aumentare, arrivare a un massimo e così via.

Se ho una variazione della corrente, ottengo, per quanto riguarda la tensione v2 sul nodo di uscita, una
corrispondente variazione della tensione la quale è di uguale forma ma è una replica amplificata (perché la
corrente è infatti amplificata) ma è in controfase, quando i1 aumenta v2 diminuisce e viceversa.
Un generatore di corrente controllato in corrente con un guadagno di corrente è in grado in opportune
condizioni di fornire un amplificazione di segnale applicato al dispositivo stesso.
Vediamo com’è fatto fisicamente un transistore bipolare e entro quali condizioni può essere assimilato a un
generatore di corrente controllato in corrente.
Il nostro transistore consiste di 2 giunzioni P/N poste una di seguito all’altra e orientate in sernso inverso e
sono due giunzioni con uno dei due materiali in comune.
Si tratta quindi di tre regioni consecutive, una p, una n e una p nel caso di un dispositivo pnp e una n, una p
e una n nel caso dei dispositivi npn.
Abbiamo due possibilità: o una giunzione pnp, ovvero fare una doppia giunzione pn-np, orientata in modo
inverso una di seguito all’altra, o una giunzione npn, due giunzioni pn poste una di seguito all’altra ma in
senso inverso (back-to-back, anodo catodo – catodo anodo, entrambe dirette una l’opposto dell’altra).

Nel caso di giunzione pnp nel transistore bipolare le due giunzioni non sono perfettamente simmetriche dal
punto di vista del drogaggio. Una zona esterna risulta essere più drogata, infatti p+ significa che drogaggio è
maggiore dell’altra zona p presente nel dispositivo.
E’ anche una zona fortemente più drogata anche rispetto alla zona n. Il drogaggio è quindi molto più
elevato rispetto alle altre zone.
La zona con drogaggio maggiore è detta emettitore, la zona centrale del dispositivo è detta base e la zona di
drogaggio uguale a quella dell’emettitore ma di concentrazione minore è detta collettore.
Ho quindi 3 terminali detti emettitore, base e collettore.
Nel caso npn sarà analoga la cosa ma sarà n+ a chiamarsi emettitore, cambia la tipologia di silicio collegata
a quel terminale.
Nel caso di pnp emettitore e collettore sono di tipo p e base è di tipo n, viceversa per npn.
Ho due dispositivi con comportamento simile e duale, e il loro simbolo circuitale è quello indicato in figura.
E’ un dispositivo a tre terminali, la base, poi abbiamo un tratto orizzontale e due altri terminali con
l’emettitore distinto dalla presenza della freccia (che nel npn è uscente dal dispositivo, mentre nel pnp è
entrante). La freccia indica il verso positivo della corrente di emettitore in un’opportuna configurazione del
nostro transistore bipolare, è il verso convenzionale preso positivamente per la corrente.

Nella realtà, considerando npn, questo è realizzato come segue:


Si parte da un substrato di silicio monocristallino di tipo p sul quale viene ottenuto uno strato n che
rappresenta il collettore. Si realizza poi uno strato estremamente sottile di tipo p, che costituisce la base e
infine viene ottenuta una regione n+ che rappresenta l’emettitore. Lateralmente vengono realizzate delle
regioni p+ che hanno funzione di isolamento dai transistori adiacenti.
Nella realtà è infatti un circuito integrato, integrato in un substrato planare, e la sua realizzazione pratica è
ben diversa. Abbiamo un substrato che si estende in direzione ortogonale al foglio.
Vengono effettuate all’interno del substrato varie tipologie di drogaggio per ottenere le varie giunzioni.
La configurazione geometrica, partendo dalla superficie, è composta dalla zona n+, poi la parte sottostante
è la base e poi troviamo il collettore. La zona che schematizziamo con lo schema visto prima è praticamente
la parte centrale:

Lo spessore della base come si vede è in realtà molto più piccolo dello spessore dell’emettitore e del
collettore, e quella del collettore è molto più grande delle altre due.
Proprio perché il dispositivo è realizzato su una superficie planare dobbiamo fare i contatti, che sono in
superficie, il contatto di base e collettore non sono proprio come indicate nello schema, si deve fare un
tratto per arrivare nella corrispondente zona.

Per la descrizione fisica prendiamo un transistore bipolare pnp.


Dimostriamo in modo qualitativo che questo transistore si può comportare in opportune condizioni come
un gen di corrente controllato in corrente.
Facciamo due considerazioni relative al comportamento di una giunzione polarizzata in diretta e in inversa.
Supponiamo di avere una giunzione tra un materiale p e un materiale n e supponiamo che la giunzione è
polarizzata in diretta:

Consideriamo l’origine posta al bordo. Avremo una zona di svuotamento che si viene a creare di dimensioni
più piccola rispetto a quella in una situazione di equilibrio, guardiamo le lacune e per gli elettroni la
considerazione sarà duale.
Abbiamo abbassato la barriera di potenziale ai capi della zona di svuotamento e un maggior numero di
lacune potranno attraversare la giunzione e verranno iniettate nella zona n.
Guardiamo cosa accade alla concentrazione delle lacune. Nella zona n le lacune sono poche con il drogaggio
realizzato, arriva un quantitativo aggiuntivo di lacune con l’abbassamento della barriera.
Queste lacune si sposteranno per diffusione all’interno della zona n e man mano che si spostano si
andranno anche a ricombinare, avendo un numero elevato di elettroni nella zona n la probabilità di
ricombinazione sarà elevata.
Considerando che le lacune si spostano per diffusione e contemporaneamente si ricombinano abbiamo che
la concentrazione di lacune in eccesso diminuisce in modo esponenziale man mano che si allontanano dalla
giunzione.

Abbiamo un andamento di questo tipo, con çp chiamata lunghezza di diffusione delle lacune.
La stessa cosa vale per gli elettroni che vanno a diminuire man mano che si propagano, questo è quello che
accade ai portatori in più che riescono ad attraversare la barriera.

Consideriamo ora invece una giunzione np polarizzata in inversa:

La zona di svuotamento aumenta e, valutando cosa accade alla corrente id che scorre nella giunzione in
funzione di vd, la corrente passa per l’origine e dopodichè per v < 0 è costante e pari alla corrente inversa di
saturazione. In prima approssimazione:

Abbiamo una corrente molto piccola perché la corrente di drift è legata alla quantità di portatori che ho a
disposizione è solo quella dei portatori generati termicamente vicino alla giunzione e che trovano un campo
elettrico favorevole.
Abbiamo anche visto che questo tipo di corrente è abbastanza indipendente dal valore della tensione e
quindi del campo elettrico nella zona di svuotamento.

Supponiamo ora di avere un meccanismo per il quale io riesca ad aumentare la concentrazione dei
portatori, o aumentare la temperatura visto che è una generazione termica oppure si potrebbe ottenere
anche per effetto luminoso, allora la caratteristica diventa come quella indicata in figura (Is2, Is3, Is4) visto
che la corrente la possiamo considerare indipendente dal campo elettrico.

Pensiamo al grafico ribaltato sul primo quadrante e non sul terzo. Se valutiamo il comportamento nella
zona indicata con la freccia, il comportamento in questo tratto è proprio quello di un generatore di corrente
controllato in corrente.
Ottengo una corrente costante il cui valore dipende da qualche meccanismo che mi è andato a modificare il
numero di portatori disponibili.
Una giunzione polarizzata in inversa può essere un buon punto di partenza per realizzare questo
comportamento, devo solo aumentare la concentrazione dei portatori.

Il metodo che è stato ideato è quello di unire una giunzione polarizzata in diretta e una giunzione
polarizzata in inversa e usare l’eccesso di portatori della giunzione polarizzata in diretta come modalità per
rifornire giunzione polarizzata in inversa.
Ho aumentato la concentrazioni di portatori minoritari e se inizia la zona polarizzata in inversa gli elettroni
trovano un campo elettrico ad attraversarla e così da proseguire il loro percorso e andare a costituire
questa corrente.

Il comportamento del transistore bipolare come generatore di corrente controllato in corrente si ottiene
nella seguente configurazione se sono verificate le due seguenti cose:
- la giunzione “BE”(base/emettitore) polarizzata in diretta
- la giunzione “BC” (base/collettore) polarizzata in inversa
Queste sono le due condizioni che andremo a vedere, annessa al fatto che la zona di base viene realizzata
molto corta così la larghezza nella zona neutra della base fa in modo che i portatori minoritari, le lacune
iniettate dall’emettitore alla base, si muovono dalla zona neutra per diffusione ma se la base è
sufficientemente stretta la maggiorparte dei portatori iniettati riesco a farli arrivare al bordo della zona di
svuotamento BC e qui trovano un campo elettrico favorevole ad attraversare la giunzione. Ecco perché si
chiamano collettore ed emettitore, l’emettitore emette i portatori e il collettore li colleziona.
La base prende questo nome per come era realizzato il primo transistore, perché faceva da base del
dispositivo.

Per quanto riguarda la varie possibili combinazioni abbiamo 4 configurazioni avendo due giunzioni.
Polarizzazione in zona attiva diretta: giunzione base emettitore polarizzata in diretta e giunzione base
collettore polarizzata in inversa.

Facciamo alcune ipotesi semplificative, supponendo che la caduta di tensione nelle zone neutre sia
trascurabile, quando applico una polarizzazione va a cadere al bordo della zona di svuotamento quindi fuori
dalla zona di svuotamento ho solo la corrente di diffusione, e supponiamo anche che l’iniezione di elettroni
dalla base verso l’emettitore sia trascurabile (effetto drogaggio p+n).
Stiamo polarizzando direttamente la giunzione pn e ho quindi l’iniezione di lacune verso la base e di
elettroni dalla base verso l’emettitore.
La quantità di portatori iniettati dipende dal gradiente di concentrazione e quindi dai drogaggi.
In conseguenza della polarizzazione diretta tra base ed emettitore, una corrente di lacune viene iniettata
dall’emettitore nella base, mentre una corrente di elettroni passa dalla base all’emettitore. Dato che, come
già sottolineato, l’emettitore è molto più drogato della base, la corrente di lacune iniettata in base sarà
molto più grande di quella di elettroni iniettata dalla base nell’emettitore, che può essere trascurata.
Supponiamo anche che la corrente inversa della giunzione BC sia trascurabile (effetto polarizzazione
inversa).
Per quanto riguarda la giunzione BC polarizzata in inversa, sappiamo che anche senza contributo
dall’esterno ha una corrente inversa costituita da minoritari che attraversano la barriera, le lacune da n a p
e gli elettroni da p a n generati termicamente danno origine a una corrente inversa di saturazione, questa
corrente inversa la consideriamo trascurabile.

Avrò poi un grosso quantitativo di lacune iniettate all’interno della base, nella zona neutra della base si
diffondono e mentre si diffondono alcune di esse si ricombinano.
Poi una parte di queste arrivano al bordo della zona di svuotamento e vanno a finire nel collettore.
Abbiamo una corrente di lacune che da emettitore è diretta al collettore, ma quant’è questo quantitativo
dipende dalla larghezza della zona base.
Più questa risulta essere stretta e minore sarà il tempo che le lacune impiegheranno ad attraversare la
base, quindi minore sarà la probabilità che si ricombineranno, maggiore sarà la quantità di portatori che
riesco ad attraversare la base senza essere perse per ricombinazione.
Se la regione di base fosse lunga, la corrente di lacune iniettata dall’emettitore, darebbe luogo a una
concentrazione in eccesso di lacune, che decaderebbe esponenzialmente con la distanza dalla zona di
svuotamento, in conseguenza della progressiva ricombinazione con gli elettroni. Essendo però la base
corta rispetto alla lunghezza di ricombinazione per le lacune (la distanza media sulla quale una lacuna si
ricombina), solo poche lacune riescono a ricombinarsi, mentre la maggior parte raggiunge la zona di
svuotamento tra base e collettore, dove le lacune vengono trascinate verso il collettore dal campo elettrico
favorevole.
La corrente di emettitore è circa uguale alla corrente di correttore, non esattamente uguale perché
abbiamo una quantità di portatori che perdo e danno origine alla corrente di ricombinazione, quella che poi
viene identificata tramite la corrente di base.
La corrente di base è non nulla, una parte dei portatori si ricombinano e se voglio mantenere la zona di
base neutra, la corrente di base deve rifornire tutti quegli elettroni persi nella ricombinazione.
Ricombinandosi, le lacune vanno a consumare gli elettroni.
Deve anche rifornire gli elettroni iniettati nella base e tener conto della corrente inversa di saturazione ma
se trascuro la corrente inversa di saturazione e la corrente iniettata nell’emittore, la base deve rifornire gli
elettroni persi nella combinazione.

La corrente di base è piccola e ha come primo scopo quello di rifornire i portatori persi nella
ricombinazione.
Cosa succede se IB = 0? Il dispositivo smette di funzionare. La corrente di base è piccola ma fondamentale.
Se supponiamo di essere nelle condizioni di avere IB = 0, non mi rifornisce gli elettroni, le lacune nella zona
n cominceranno a consumare elettroni, ho una zona neutra che diventa carica positivamente e la carica
positiva va a respingere l’iniezione di altre cariche positive.
Se non rifornissi gli elettroni che man mano sono consumati dalla ricombinazione, la base smetterebbe di
essere neutra, comincerebbe ad avere un potenziale positivo e ciò impedirebbe un ulteriore iniezione di
lacune, si raggiungerebbe una situazione in cui alla fine non si avrebbe più passaggio di corrente.
La barriera di potenziale tenderebbe a ri-aumentare e quindi l’iniezione portatori andrebbe a diminuire.
Ma non solo, la IB pur essendo piccola è in grado di controllare il flusso di corrente delle lacune iniettate.
A regime la parte di lacune che vado a perdere è legata alla corrente di base. La quantità di lacune perse in
percentuale rimane più o meno la stessa e se aumento o diminuisco la corrente di base, se la percentuale
delle lacune che perdo per ricombinazione è costante, se aumento la corrente di base posso aumentare
anche la corrente dell’emettitore.
Data la dimensione della base possiamo dire che la percentuale di lacune che perde è in prima
approssimazione fissa, per esempio l’1%, questo 1% di lacune deve essere rifornito in termini di corrente di
base. Se io ho una corrente di base IB = 10 microA le lacune che possono passare sono tante lacune da fare
in modo che l’1% di quelle siano a pari a 10 microA, devo avere un bilancio che mi mantiene neutra questa
zona, se aumento IB aumenta IE. Quindi aumentando la corrente di base aumenta di uno stesso fattore la
IC.

Ho una corrente piccola, quella di base che è in grado di mantenere neutra la base e di controllarmi un
flusso di corrente più grande.
Ho sostanzialmente un generatore di corrente controllato in corrente con un guadagno di corrente dove la
corrente di base è la corrente di controllo.
La corrente IE è circa uguale alla corrente di uscita IC e posso controllare IE tramite IB.

Facendo la trattazione fisica abbiamo un modello per grandi segnali del transistore, detto modello di Ebers-
Moll, modello che descrive il comportamento per grandi segnali del transistore BJT.
Per PNP il modello dà due giunzioni collegate l’una l’opposto all’altra.

Rappresenta il transistore come costituito da due giunzioni pn contrapposte con l’aggiunta di generatori di
corrente comandati, che descrivono la porzione della corrente di emettitore trasferita al collettore oppure
quella della corrente di collettore trasferita all’emettitore, nel caso che il transistore venga fatto funzionare
con la giunzione base-emettitore in polarizzazione inversa e quella base-collettore in polarizzazione diretta.
Se disegniamo il simbolo del diodo la zona P è quella dell’anodo, la zona N è invece quella del catodo.
Essendo PNP abbiamo gli anodi dei due diodi rivolti uno verso l’Emettitore e uno verso il Collettore quindi
disegno questi due diodi che mi identificano le giunzioni.
Il transistore è tale che non ho solo due giunzioni, il mio transistore bipolare è stato costruito in modo tale
chela base sufficientemente corta da fare in modo che l’eccesso di portatori iniettati non si ricombinino
tutti all’interno della base ma riescono ad arrivare all’altra giunzione che è polarizzata in inversa, dando la
possibilità di avere il trasporto dei portatori dall’emettitore verso il collettore.
Per tenere conto del fattore trasporto si inseriscono due generatori di corrente controllati in corrente, uno
tra la base e il collettore (con IED corrente che scorre sulla giunzione BE, e il fattore af frazione di corrente
diretta che tiene conto della parte di lacune che attraversano indenni la base senza ricombinarsi e che
riescono ad arrivare verso il collettore) con il verso della corrente lo stesso stesso della corrente positiva del
diodo BE.
Questo fattore è sicuramente minore di 1 e rappresenta la frazione della corrente di emettitore che
raggiunge il collettore.

Ma considerando che la base è sufficientemente stretta abbiamo che af varia tra questi valori. Soltanto
circa il 2% dei portatori sono persi per ricombinazione.
Pochissimi portatori si ricombinano nella base e la maggiorparte arrivano al collettore.
Successivamente il dispositivo è simmetrico apparte il drogaggio, PNP posso studiarlo sia da dx verso sx che
da sx verso dx, devo tenere conto della reciprocità del transistore considerando il fatto che anche se io
polarizzo direttamente la giunzione BC oppure inversamente BE il transistore può funzionare.
Quindi se indico con ICD la corrente ho anche un generatore di corrente controllato in corrente con fattore
ar. ICD tiene conto che un eventuale eccesso di portatori iniettati dal collettore alla base possono
attraversare indenni la base e essere accolti dalla giunzione BE.
Il fattore rappresenta la frazione della corrente di collettore che viene trasferita all’emettitore nel caso di
polarizzazione diretta della giunzione BE.

Per come è costruito il diodo, legato ai drogaggi e alla struttura geometrica abbiamo che ar <= af.
f : forward (diretta)
r: reverse (inversa)

Questo modello può essere utilizzato anche con il transistore NPN:

Disegno i due diodi, ho la zona p al centro quindi ho gli anodi al centro, e posiziono i generatori, fisso il
verso della corrente positiva dei due diodi, sempre anodo verso catodo e poi i generatori vengono di
conseguenza nello stesso verso, ar e af sono positive quindi il verso del generatore sarà lo stesso della
corrente.
Le correnti complessive viste ai terminali esterno nel modello vengono prese tutte entranti.
Attenzione a disegnare il cortocircuito nel nodo di base (quello a comune centrale) visto che la base è il
catodo dei due diodi ma è anche dove avviene il fattore di trasporto dei portatori che non si ricombinano al
suo interno, quindi deve esserci il cortocircuito tra i generatori controllati e i due diodi.
Vediamo come si esprimono le equazioni che regolano il comportamento del transistore bipolare in
qualunque zona di funzionamento, considerando quello del PNP.
Esprimiamo la corrente che scorre nei due diodi (modello di Schockley), in cui ipotizziamo n =1 perché
parliamo di dispotivi integrati.

Nella corrente IED ci vuole VEB, la tensione ai capi del diodo, che è quella anodo catodo, l’anodo è
l’emettitore e il catodo è la base.
La ICD richiede anch’essa la tensione anodo-catodo, qui l’anodo è il collettore e il catodo è la base.

Per i transistori bipolari esiste la seguente relazione di reciprocità:

Andiamo a scrivere il valore della corrente emettitore, di collettore, di base col bilancio delle correnti:

Per la corrente di base posso considerare il dispositivo nel mio complesso e la corrente di base sarà quindi
semplicemente uguale e opposta alla somma delle altre due, posso vedere il dispositivo come un macro-
nodo in cui la somma delle correnti entranti deve essere nulla.

Queste tre equazioni sono le 3 equazioni che mi regolano le 3 correnti nel mio dispositivo che sono in
funzione delle tensioni applicate alle giunzioni.
A seconda del valore di VEB e VCB potrò andare a semplificare opportunatamente queste equazioni e
vedere come si comporta questo dispositivo.
Per il NPN invece:

Le equazioni di Ebers-Moll per un transistore npn diventano:

Da notare che qui le tensioni sono VBE e VBC, le tensioni che vanno all’esponente sono sempre anodo-
catodo.
Sono in grado di descrivere cos’ il comportamento transistore bipolare in qualunque zona di
funzionamento. Avendo ogni giunzione che può essere o in diretta o in inversa, ho 4 zone di
funzionamento, quattro configurazioni.

Nella zona attiva diretta a seconda se NPN o PNP la polarità delle tensioni sarà diverse ma si ricavano in
automatico ragionando sui diodi. Diretta se la zona P avrà un potenziale più alto della zona N, in inversa se
la zona P è a potenziale più basso della zona N.
In questo caso si comporta come un generatore di corrente controllato in corrente, e viene usato come
amplificatore.

Nella zona attiva inversa in questo caso il dispositivo si comporta anche qui come generatore di corrente
controllato in corrente ma avendo:

Può ancora essere usato come amplificatore ma le prestazioni sono molto più degradate rispetto al
funzionamento in zona attiva diretta (dovuto al fatto che ar << af).

Ho poi una zona di interdizione se entrambe sono polarizzate in inversa, passa poca corrente a meno che
non ci sia un meccanismo che rifornisce, nel transistore non transita corrente e quindi ho un interruttore
aperto.

Ho una zona di saturazione se sono entrambe polarizzate in diretta, in questo caso accade che si ha un
passaggio di corrente non trascurabile attraverso il transistore con una caduta di potenziale molto piccola
tra emettitore e collettore e la corrente risulta essere non trascurabile, ho quindi un interruttore chiuso.
Queste ultime zone venivano sfruttate in ambito digitale storicamente facendolo funzionare in interdizione
o saturazione.
Se invece tratto il segnale in modalità analogica e faccio funzionare il transistore in zona attiva diretta posso
amplificarlo, ho un generatore di corrente controllato in corrente con guadagno di corrente non
trascurabile.

Caratteristiche a emettitore comune


Usiamo il transistore NPN e studiamolo in una configurazione particolare, a emettitore comune, quella più
usata per avere un’amplificazione.

Ho il terminale di emettitore a comune tra la porta di ingresso e quella di uscita.


La porta di ingresso è la porta tra la base e l’emettitore quindi le grandezze di ingresso sono la tensione tra
la base e l’emettitore e la corrente di ingresso è la corrente di base, che in un transistore NPN per
convenzione viene presa entrante, perché in NPN devo rifornire le lacune perse nella, quindi corrente di
base entrante nella base.
La porta di uscita è costituita dalla porta Collettore-Emettitore quindi le grandezze di uscita sono la tensione
tra collettore e emettitore e la corrente Ic.
Quindi le caratteristiche di ingresso del mio dispositivo saranno IB, funzione di VBE e VCE, abbiamo infatti
visto che abbiamo un legame tra la tensione e la corrente della porta di ingresso e un parametro della porta
di uscita e viene scelto come parametro VCE.
Nelle caratteristiche di uscita ho un legame tensione e corrente della porta di uscita e un parametro della
porta di ingresso, nella maggiorparte dei casi si sceglie IB.
Studio il comportamento del dispositivo in queste condizioni applicando il modello di Ebers-Moll
considerando la zona di funzionamento attiva diretta.
Riscrivo le equazioni NPN:

Faccio delle ipotesi. Supponiamo di essere in zona attiva diretta e di avere la giunzione BE polarizzata
positivamente. Stiamo trattando un NPN quindi:

La giunzione BC è invece polarizzata in inversa e quindi la tensione VBC è negativa e molto minore di -VT:

Considerando la corrente dell’emettitore se sono nelle condizioni in cui VBE >> VT il termine esponenziale
predomina sull’unità, e posso cancellare il termine dell’unità, a secondo termine abbiamo VBC negativa
quindi l’esponenziale è trascurabile nei confronti dell’unità.
Le stesse considerazioni possono essere fatte sulla corrente di collettore.

Le correnti IES e ICS sono dello stesso ordine di grandezza ma ICS moltiplicata per numero minore di 1 e IES
è un esponenziale molto maggiore di 1 quindi posso dire che il secondo termine è trascurabile.
Nella seconda equazioni possiamo fare lo stesso ragionamento, IES e ICS sono dello stesso ordine di
grandezza ma IES è moltiplicata per af che è quasi 1 e per un termine esponenziale >> 1 quindi posso
trascurare ICS.
In zona attiva diretta abbiamo quindi quei circa uguale finali.
E’ evidente quindi che:

La corrente di collettore è dovuta ai portatori (qui in NPN sono elettroni) che iniettati dall’emettitore
riescono ad arrivare al collettore, e sono pari a af * IE, questo è quello che ottengo in zona attiva diretta.
Nella condizione a emettitore comune infatti di fatto quasi tutta la corrente di emettitore viene raccolta dal
collettore e questa è la quantità che viene raccolta.

La freccia nella figura indica il verso positivo della corrente nella condizione di zona attiva diretta ed ecco
perché IE ci viene negativa avendo preso il verso entrante come segue:

In zona attiva diretta, con le ipotesi che abbiamo fatto, abbiamo la possibilità di semplificare l’equazione di
Ebers-Moll e trovare questa importante relazione e IE quindi sarà pari a (prendendo Ie entrante, il – è
dovuto a questo motivo):

Sfruttando questa relazione posso calcolare IB:

Il legame in zona attiva diretta tra IC e IB è allora il seguente:

Dove il parametro Bf è definito come:

In alcuni data sheet indicato anche con il simbolo ‘hFE’ (maiuscole non minuscole altrimenti abbiamo un
altro significato) e indica il legame tra la corrente di base e la corrente di collettore.
Se cambio la corrente di base in zona attiva diretta ho una conseguente relazione con la corrente di
collettore.
Il parametro Bf può essere anche dell’ordine di centinaia, perché alpha f è circa uguale a 1 e quindi il
denominatore diventa circa uguale a 0.
Con un transistore in zona attiva diretta quindi riesco a controllare tramite una corrente piccola (quella di
base) una corrente più grande (di collettore).
La IB dipende dalla IC ma la posso anche esprimere andando a esplicitare Ic:
Quindi abbiamo anche un legame tra IB e VBE.

Per quanto riguarda la corrente di colletore in zona attiva diretta, questa non dipende dalla VCE, le
caratteristiche di uscita del transistore sono tali che Ic è indipendente da VCE ma dipende solo da IB tramite
Bf. L’espressione che lega IC e Ib è quella di un generatore di corrente controllato dalla corrente.
Mentre questa relazione tra IB e VBE non è altro invece che la caratteristica di ingresso del nostro
dispositivo:

Infatti è la IB in funzione della VBE ed un parametro di uscita, anche se in questa trattazione non dipende da
nessun parametro di uscita. Questa caratteristica di ingresso è analoga a quella di un diodo, è un modello di
Shoeckley in cui il termine IES viene moltiplicato per (1 – af), ma l’andamento della IB è sempre quello del
diodo.

Se andiamo a graficare in zona attiva diretta l’andamento della corrente IC in funzione della VCE per vari
parametri della IB, il nostro comportamento è quello di un generatore di corrente controllato in corrente,
ho delle rette orizzontali indipendenti dal valore di VCE, semplicemente pari a IB * Bf.

Abbiamo però un limite alla zona attiva diretta, le caratteristiche non rispecchiano esattamente quelle di un
generatore di corrente controllato in corrente ideale ma quando VCE diventa piccola, le caratteristiche
collassano l’una sull’altra e vanno tutte a passare per l’origine, ed è anche ciò che ci dicono le equazioni di
Ebers-Moll. Abbiamo due giunzioni con le caratteristiche (modello shoeclky) in cui ho che per tensione nulla
il valore della corrente passa per l’origine.
Questa zona in cui il comportamento delle caratteristiche di uscita divergono divergono al comportamento
di un generatore di corrente controllato in corrente ideale è detta zona di saturazione, perché si ha quando
il transistore non è più in zona attiva diretta ma si trova nella zona in cui entrambe le giunzioni sono
polarizzate direttamente.
Avviene al di sotto di una VCE di saturazione, VCESAT, e quando VCE diminuisce al di sotto di questo valore
non possiamo più considerare il transistore come un generatore di corrente controllato in corrente, ma
bensì ho una zona con tensione molto piccola tra i suoi terminali.
Le diverse caratteristiche collassano l’una sull’altra e si perde quindi il controllo della corrente di collettore
da parte di quella di base. In saturazione il transistore si comporta dunque come l’equivalente di un
interruttore chiuso connesso tra emettitore e collettore.

Quindi in zona attiva diretta abbiamo:

Quindi con il nostro parametro Bf dipende da come risulta essere costruito il nostro transistore bipolare, in
particolare dai drogaggi e dalle dimensioni geometriche (quanto la base è resa stretta).
Vedremo come questo guadagno si ottiene anche dinamicamente e non solo staticamente e ci consentirà di
utilizzare il nostro transistore come un amplificatore..
Se VCE diminuisce il transistore va in saturazione, e questo è dovuto al fatto che VCE è la differenza di
potenziale tra collettore ed emettitore e si può esprimere come differenza di potenziale tra collettore e
base e la differenza di potenziale tra base ed emettitore.

Ma VBE, se sono in polarizzazione diretta, è circa costante e pari a Vy.


Supponiamo che anche per il transistore bipolare come con il diodo abbiamo un potenziale Vy = 0.7V.
Questo è un transistore NPN ricordiamo, tipicamente ci prendiamo la VBC, il terminale è collegato al P e
non all’N, e quindi possiamo scrivere che:

Al variare di VCE accade che per VCE con un alta tensione negativa la giunzione BC è polarizzata in inversa,
ma se VCE scende al di sotto di un certo numero di volt la VBC diventa positiva e la giunzione BC al
diminuire della tensione CE diventa polarizzata in diretta.
Quando VCE scende al di sotto di Vy, la giunzione CB comincia a essere polarizzata direttamente, per cui
usciamo dalla zona attiva diretta propriamente detta.

Entro in zona di saturazione per VCE grandi e sono in zona attiva inversa dove VBC è negativa e se
diminuisco VCE succede che la giunzione BC da inizialmente in inversa, ad un certo punto va in diretta.
Il transistore va in saturazione. Di solito si prende un valore di riferimento di VCEsat di questo tipo:

Se VCE diminuisce e scende sotto questa soglia la giunzione BC che era in inversa diventa polarizzata in
diretta, il transistore va in saturazione, la corrente di base aumenta visto che ho due giunzioni polarizzate in
diretta e ho una forte iniezione di portatori da entrambe le giunzioni all’interno della base e le
caratteristiche collassano l’una sull’altra e possiamo considerare il transistore bipolare come un interruttore
chiuso. Ho VCE piccolo e IC che comunque non è piccola perché continua a rimanere dell’ordine di alcuni
mA almeno all’inizio della zona di svuotamento.

Vediamo le caratteristiche di ingresso, in zona attiva diretta:

Ho la corrente di ingresso in funzione della tensione di ingresso data da un esponenziale:

In zona attiva diretta le caratteristiche di uscita sono quelle di un generatore di corrente controllato in
corrente e le caratteristiche di ingresso rappresentano il comportamento della giunzione base emettitore
e hanno quindi un andamento esponenziale simile a quello di un diodo.

Effetto Early
Troviamo un particolare fenomeno sia sulle caratteristiche di ingresso che quelle di uscita.
Al variare della VCE ho delle caratteristiche diverse pur rimanendo in zona attiva diretta, c’è qualcosa che si
sfugge perché VCE non compare nell’equazione.
Abbiamo nel modello di Ebers-Moll come l’abbiamo trattato qualche comportamento trascurato.
Se osserviamo le caratteristiche di ingresso per VCE diverse abbiamo caratteristiche diverse.
Questo accade anche sulle caratteristiche di uscita, le caratteristiche reali delle componenti non sono
esattamente quelle di generatore di corrente controllato in corrente ideale ma le rette assumono una certa
pendenza:

La corrente di collettore in zona attiva diretta non rimane costante al crescere della VCE, ma subisce un
incremento, da un punto di vista grafico visibile nella forma di un’inclinazione verso l’altro delle
caratteristiche, per tutta la zona attiva diretta.
Avevamo trovato col nostro modello però che:

e c’è qualcosa che non torna nel nostro modello perché non è in grado di giustificare un comportamento di
questo tipo.
L’effetto che determina questo comportamento prende il nome di Effetto Early.

All’aumentare della VCE aumenta la corrente di collettore. Anche in IB abbiamo una dipendenza dalla VCE.

Dobbiamo capire qual è il motivo per cui sia la corrente di collettore che quella di base dipendono dalla
tensione tra collettore ed emettitore mentre nel modello di Ebers-Moll la dipendenza non è presente.
Nelle caratteristica di uscita Ic posso esprimerla anche come (visto che Ibv dipende da Vbe):

Abbiamo infatti visto che le caratteristiche di uscita posso esprimerle anche in funzione di VBE e VCE invece
di usare la IB.
Usando come parametro la VBE, ottengo che le caratteristiche sono inclinate e se vado a proseguire col
prolungamento della caratteristiche nel secondo quadrante, tutte le caratteristiche hanno una pendenza
tale che il loro comportamento del secondo quadrante le porta a intersecare l’asse delle ascisse per un
valore della tensione pari a Va, negativa, detta tensione di Early. Intersecano tutte lo stesso punto.

Supponiamo di prendere VBE costante, per esempio VBE = VBE3. Ma come mai se aumento VCE a VBE
costante, aumenta la corrente IC?

Abbiamo che la VCE è data da:

Se VCE aumenta e la VBE rimane costante, allora VCB:

Se aumenta VCE, VCB aumenta, ed è positiva ma però siamo in un NPN quindi alla VBC succede che:

Aumenta in modulo ma è negativa.


La tensione BC è polarizzata ancora di più in inversa, la VBC diventa sempre più negativa, aumenta la
polarizzazione inversa e quindi se VBC aumenta in modulo (VBC = -VBC) aumenta la zona di svuotamento
tra la giunzione BC:
Quindi se aumento la VCE mi si allarga la zona di svuotamento della giunzione polarizzata in inversa:

Se si allarga la zona di svuotamento della giunzione BC, mi va a diminuire la larghezza della zona neutra
della base e di conseguenza diminuisce la probabilità di ricombinazione nella zona neutra.
Se diminuiamo infatti il percorso che i portatori seguono nella base allora la probabilità di ricombinazione
diminuisce e quindi un maggior numero di portatori iniettati dall’emettitore all’interno della base
riusciranno ad attraversarla senza ricombinarsi, il che vuol dire che la corrente di collettore aumenta (alpha
f aumenta).
Cosa manca nel modello di Ebers-Moll è la considerazione che af per questo effetto non è costante ma
inizia a essere dipendente dalla tensione VCE e quindi anche Bf cambia al variare della tensione.
La corrente che passa nel mio transistore diventa maggiore proprio perché, all’aumentare della VCE, ho una
diminuzione della zona neutra e quindi una ricombinazione più piccola.

Ecco perché la corrente di collettore non rimane costante a variare della VCE, ho IC proporzionale a Bf che
risulta essere non costante ma dipende dalla VCE.
Dunque, per valori di VCB (e quindi di VCE) più elevati la corrente di collettore aumenta a parità di corrente
di base e quindi ciascuna delle curve corrispondenti alle caratteristiche di uscita risulta inclinata verso l’alto.
Questo relativamente alle caratteristiche di uscita.

Questo fenomeno è anche presente però nelle caratteristiche di ingresso, mi cambia anche la IB.
Il motivo è che se diminuisco la larghezza della zona neutra, diminuisce la possibilità di ricombinazione e
come sappiamo la corrente di base deve rifornire i portatori per i vari meccanismi di cui abbiamo parlato.
Ma la componente maggiore è dovuta al computo di rifornire i portatori persi per effetto della
ricombinazione con i portatori iniettati da E (qui in NPN parliamo di lacune, la corrente di base deve
rifornire le lacune).
Se la probabilità diminuisce anche la corrente di base diminuisce perchè deve rifornire meno portatori,
quindi si ha l’effetto early e aumentando VCE a parità di VBE mi deve diminuire corrente di bas.e
Se prendo VBE costante all’aumentare di VCE la corrente di base diminuisce.

Questo è quello che si riscontra per l’effetto Early. Come vedremo ad esercitazione questo effetto è molto
meno marcato nelle caratteristiche di ingresso mentre sulle caratteristiche di uscita l’effetto early ha una
sua evidenza non trascurabile. Ho quindi un duplice effetto.

Abbiamo analizzato le caratteristiche di transistori npn ad emettitore comune, quella più utilizzata per il
trattamento dei segnali. Gli stessi ragionamenti si possono fare anche per combinazioni a base comune e a
collettore comune e si possono fare anche nel funzionamento in zona attiva inversa (dove si scambiano di
ruolo la corrente di collettore e quella di emettitore), in interdizione e in saturazione.

Le caratteristiche di ingresso e di uscita dei transistori pnp sono del tutto analoghe (con gli opportuni
cambiamenti di segno a tutte le correnti e tensioni) a quelle degli npn.
Per cui se grafichiamo la corrente -Ic in funzione della tensione -VCE, con -Ic considerata entrante, si hanno
stesse caratteristiche.
Per la caratteristica di uscita:

Senza inversione di segno le caratteristiche di uscita sarebbero nel terzo quadrante


Le caratteristiche del pnp sono analoghe a quelle di non ma sono cambiati tutti i segni (dove qui Ib è
considerata uscente):

Lo stesso accade anche per le caratteristiche di ingresso, analoghe al caso NPN solo che sono invertiti tutti i
segni delle correnti e delle tensioni quindi ho -IB in funzione di -VB e in funzione di VCE che è negativa.
Per quanto riguarda le caratteristiche di ingresso:

Si potrebbero prendere le equazioni di Ebers-moll con le stesse considerazioni e semplificazioni fatte in


zona attiva diretta e troviamo lo stesso andamento delle correnti in funzione delle tensioni, ma l’unica cosa
che cambia sono i segni.
Usando le convenzioni di Ebers-moll le correnti tutte entranti, infatti nel simbolo abbiamo la freccia rivolta
verso l’interno per cui prendendo Ic, Ib e IE entranti se facciamo l’analisi con il modello di Ebers-moll accade
che troviamo una corrente di collettore negativa, una corrente di base negativa e una corrente di
emettitore positiva

Il simbolo del transistore infatti ci indica il verso della corrente in zona attiva diretta e in NPN è entrante.
Le caratteristiche sarebbero nel 3’ quadrante quindi la corrente è negativa e la Vce è negativa.
La giunzione BE polarizzata in diretta e la tensione BC è polarizzata in inversa quindi la tensione B è
maggiore della tensione C, VCE deve essere negativa in polarizzazione diretta.
Questo è il comportamento fisico del transistore bipolare.
Vedremo le applicazioni del transistore bipolare, che saranno analoghe a quelle del transistore mosfet,
dopo aver trattato quest’ultimo.

Transistori a effetto di campo (FET)


Ho un transistore in cui il flusso di corrente viene controllato tramite un campo elettrico e quindi tramite il
valore della tensione applicata a un opportuno elettrodo di comando. Mentre nel BJT avevamo un controllo
da parte di una corrente di base, che in realtà come sappiamo però anch’essa dipende da una tensione che
è la tensione BE e può quindi essere visto come controllato in tensione, il transistore FET è invece
schematizzabile come un generatore di corrente controllato in tensione:

Anche questo componente ha due porte e lo schema ideale di un generatore di corrente controllato in
tensione ha la seguente rappresentazione circuitale:

Abbiamo la porta di ingresso, che in questa situazione ideale, è un circuito aperto (ho un’impedenza infinita
nella porta di ingresso) e quindi i1 = 0.
Nella porta di uscita abbiamo invece un generatore di corrente controllato da una tensione quindi il valore
della corrente che scorre nella porta di uscita dipende dalla tensione presente sulla porta di ingresso,
tramite il seguente parametro, detto transconduttanza.

Questo parametro rappresenta il rapporto tra la corrente di uscita e la tensione in ingresso.


Risulta essere una conduttanza perché dimensionalmente è il rapporto di una corrente e una tensione ed è
detta ‘trans’conduttanza perché è il rapporto tra la corrente e la tensione di due porte diverse, ho la
corrente di uscita in funzione della tensione di ingresso.
Possiamo anche in questo caso rappresentare le caratteristiche di uscita, sul piano v2-i2, ottenendo una
famiglia di curve in funzione del parametro costituito dalla tensione di ingresso. Tali curve altro non sono
che rette parallele all’asse delle ascisse, poichè la corrente in uscita non dipende dalla tensione v2, ma
soltanto dalla v1.
Il legame con la tensione V1 è dato da gm.
Se considero una configurazione in cui sono presenti un generatore di alimentazione esterno V22 e una
resistenza di carico RL:

E’ possibile tracciare sul piano delle caratteristiche di uscita una retta di carico, la cui pendenza corrisponde
a −1/RL e che interseca l’asse delle ascisse in corrispondenza di V22.
Posso quindi determinare il punto di lavoro e nel caso in cui la tensione di ingresso assume un valore pari a
V12. Al variare della tensione v1 applicata in ingresso, il punto di lavoro si sposterà quindi lungo la retta di
carico, dando luogo a una variazione della tensione di uscita v2 che rappresenta una replica amplificata e
invertita di fase della tensione di ingresso.
Il transistore FET ha un comportamento analogo.

I transistori FET possono essere distinti in due categorie principali:

MOSFET è un FET costituito da metallo ossido semiconduttore


Non tratteremo il JFET perché non trattato in ambito digitale quanto il MOSFET, che invece risulta essere un
FET costituito da metallo ossido semiconduttore e guarderemo il suo impiego sia in ambito analogico che in
ambito digitale. Tutta l’elettronica digitale allo stato odierno è realizzata con MOSFET.
Condensatore MOS
Il condensatore MOS è composto da un substrato di silicio che costituisce il semiconduttore sul quale
troviamo uno strato di ossido di silicio che considereremo come un perfetto isolante, non consente il
passaggio di corrente, sul quale troviamo a sua volta un elettrodo chiamato gate(porta), costituito
inizialmente in metallo e con l’evoluzione delle tecnologie realizzato invece in polisilicio (silicio
policristallino, dove abbiamo diverse orientazioni al suo interno, drogato opportunatamente da avere un
comportamento metallico), che considereremo un conduttore perfetto.

Possiamo considerarlo come un condensatore, abbiamo infatti un elettrodo, un isolante che fa da


dielettrico e un substrato che possiamo considerare come l’altro elettrodo. Dal punto di vista del
funzionamento possiamo vederlo come un condensatore con un substrato posto a potenziale di riferimento
e l’elettrodo applicato al potenziale VG.

Se applico a questa struttura una tensione di gate negativa rispetto al substrato, ci aspettiamo che come un
condensatore sulle armature ci sia una carica uguale e opposta e in particolare con una tensione negativa,
sul gate dovrò avere una tensione negativa compensata dalle lacune presenti nel substrato di tipo p attirate
dal campo elettrico verso la superficie.
Se applico una tensione negativa, ciò tende ad attirare verso di sè le cariche di segno opposto.
La tensione negativa applicata sull’elettrodo di gate generà un campo elettrico in direzione verticale, nel
verso in figura essendo la tensione negativa.
Le lacune sentono il flusso di questo campo elettrico generato e migrano verso la superficie dove nel loro
percorso vengono bloccate dall’ossido, non possono proseguire nel loro percorso e si vanno ad accumulare
in superficie, all’interfaccia tra il substrato e l’ossido.
La dimensione di questa regione è molto minore della dimensione del substrato, molto di più di quanto è
indicato in figura.
Se verifico la concentrazione di lacune presenti nella zona superficiale, ottengo che la concentrazione di
lacune in superficie è maggiore di quella che ho nel substrato, maggiore della concentrazione di body.
Le cariche libere (gli elettroni) hanno sentito l’effetto del campo elettrico e si sono accumulate in superficie.
Se ho un substrato di tipo p con drogaggio uniforme di lacune, se applichiamo una tensione negativa del
gate in superficie, abbiamo una concentrazione di lacune superiore a quella del substrato. Alcune delle
cariche libere si sono accumulate in superficie.

Se applico una tensione opposta non tropo grande, inferiore alla tensione di soglia (valore limite):

Adesso troverò un campo elettrico diretto verticalmente in direzione opposta, che allontana le lacune, e la
tensione positiva respinge le cariche dello stesso segno.
All’interfaccia tra il substrato e l’ossido accade che le cariche libere vengono allontanate dalla superficie, le
lacune sono migrate e in superficie ci rimangono gli ioni accettori che sono cariche fisse e non si possono
muovere, le cariche mobili vengono mandate via come nella giunzione PN, dove lì avevamo la diffusione e
la ricombinazione, qui invece sono respinte dal campo elettrico che si forma nella zona di svuotamento,
che assume carica complessiva negativa di segno uguale e opposto alla carica positiva che abbiamo
accumulato sull’altra armatura del condensatore.
In questo caso la concentrazione di lacune in superficie ora viene a essere inferiore alla concentrazione
pbody, se prima ero in accumulazione ora sono andato in svuotamento, ho una regione di substrato in cui
ho diminuito la concentrazione di cariche libere.
Se incremento ulteriormente la tensione di gate e supero la tensione soglia accade un fenomeno
particolare. Per Vg >= VT, in superficie non solo vengono respinte le lacune (percè cariche positive) ma
vengono attirate le cariche negative, ciò avveniva anche prima ma per muoversi devono essere cariche
mobili e in un substrato di tipo p sono poche quelle mobili, ho solo i minoritari.
Respingo le lacune lontano dalla superficie e attraggo verso la superficie gli elettroni liberi.
Per campi elettrici sufficientemente piccoli sono pochissimi gli elettroni che riesco ad attrare alla superficie,
mentre se aumento la tensione più elettroni riescono ad essere attirati verso la superficie e accumulati
verso la superficie.
Arrivati ad una tensione soglia, in presenza dell’interfaccia tra l’ossido e il semiconduttore si genera una
zona in cui ho una concentrazione di portatori (elettroni) e la concentrazione n di superficie diventa
maggiore della concentrazione p nel body, ciò significa che se nel substrato ho un drogaggio di 10^17 in
condizione di equilibrio gli elettroni liberi sono molto pochi (sono 10^3 elettroni se ni^2 = 10^20).
Gli elettroni si accumulano in superficie e si genera uno strato sottile in superficie in cui la concentrazione di
elettroni diventa maggiore della concentrazione di pbody, quindi ho più di 10^17 elettroni che si sono
accumulati, ho un accumulo forte di elettroni in superficie.
In questa zona, prima si è tutta svuotata e poi la parte più in alto si è riempita di cariche libere di segno
opposto (elettroni liberi), raggiungendo una concentrazione maggiore della concentrazione di lacune nel
substrato. Si dice che si è formata una regione di inversione, il substrato in quella zona di tipo p ora si è
trasformato in tipo n e ad applicare questa trasformazione è stato il campo elettrico che ho applicato, che
ha diminuito la concentrazione di lacune e ha attirato verso la superficie cariche libere presenti nel
substrato e ha generato uno strato superficiale in cui la concentrazione di elettroni è addirittura superiore
alla concentrazione di lacune del substrato, è come avere avuto una inversione di drogaggio, è come se
avessi lì un semiconduttore drogato n, si dice che il nostro semiconduttore è andato in inversione.
Questo fenomeno di accumulo di portatori liberi avviene anche per tensioni minori di Vt, sotto soglia, pero
si prende un riferimento quando la concentrazione superficiale è equivalente alla concentrazione del
substrato e quella si indica come tensione di soglia.
Questo strato in realtà c’è anche prima di raggiungere la tensione di soglia ma non ha una concentrazione
così elevata, quando ho la tensione pari alla tensione soglia ho la concentrazione cariche libere uguale alla
concentrazione di cariche libere nel substrato e ho effettuato l’inversione.
L’idea alla base del funzionamento del transistore MOS (Metal-Oxide-Semiconductor) è abbastanza
semplice: si crea uno strato di cariche mobili in prossimità della superficie di un semiconduttore, tramite
l’applicazione di un campo elettrico per mezzo di un elettrodo di gate metallico, che “attira” le cariche verso
la superficie stessa.
Un transistore MOSFET è realizzato come segue:

E’ un condensatore MOS a cui sono stati aggiunti due zone drogate n+, serbatoi di carica, zone drogate
fortemente in valore opposto a quello del substrato che mi costituiscono gli altri due terminali (source e
drain) che insieme al gate, costituiscono gli altri due terminali.
Questa zona centrale nella figura è composta infatti da un terminale di gate, l’ossido e un semiconduttore
di tipo p con il suo body. Nella direzione verticale il transistore non è altro che condensatore MOS.
Vedremo come la lunghezza L è un parametro importantissimo (lunghezza canale) per il funzionamento del
nostro transistore. Abbiamo però anche un altro parametro dimensionale che è la profondità del canale,
perpendicolare al foglio.

Il funzionamento del mosfet consiste nel controllare la corrente che scorre tra source e drain con la
tensione che viene applicata al terminale di gate. La zona di substrato che separa il source dal drain viene
chiamata regione di canale e la distanza che esiste tra i due drogaggi di tipo n+ viene chiamata lunghezza di
canale L. Il dispositivo è planare tridimensionale e quindi abbiamo anche w, la larghezza di canale.

Il dispositivo presenta due giunzioni, quella tra il source e il substrato, n+/p, e l’altra giunzione n+/p.
Il normale funzionamento del dispositivo avverrà nelle condizioni in cui queste due giunzioni (possiamo
schematizzarli come giunzioni pn+) vengono polarizzate in inversa.
Ho un componente a 4 terminali, source, drain, gate e il contatto di substrato.
La polarizzazione che dobbiamo applicare al dispositivo è tale da mantenere le due giunzioni sempre
polarizzate inversamente.
Se siamo in una situazione come in figura dobbiamo fare in modo che il substrato sia posto a potenziale
sempre inferiore a quello di source e di drain, in modo che l’anodo sia sempre polarizzato a una
polarizzazione inferiore rispetto al proprio catodo, così da avere le due giunzioni polarizzate in inversa.
Si parla di mosfet a canale n e il substrato viene tenuto al potenziale di ground così da polarizzare in inversa
le due giunzioni.
In presenza di tale polarizzazione tra il source e il drain, non può scorrere nessuna corrente in assenza di
alcuna sollecitazione dall’esterno, avendo polarizzato il substrato a potenziale inferiore di source e drain e
avendo quindi due giunzioni entrambe polarizzate in inversa.
Se siamo nella condizione in cui il substrato è mantenuto a potenziale di riferimento, source e drain sono
ground e VGS = 0:

Abbiamo due giunzioni n+-p con polarizzazione nulla e quindi avremo una zona di svuotamento alla
giunzione tra n+ e substrato, con un potenziale di contatto, e la zona di svuotamento sarà data dagli ioni
accettori del substrato e gli ioni donatori del drogaggio n+.
La zona degli ioni donatori è molto più piccola della zona con gli ioni accettori perché il drogaggio di tipo n+
è molto più grande del substrato e quindi la zona di svuotamento è molto piccola.
Le due larghezza delle zone di svuotamento dipendono dal drogaggio. In queste condizioni il nostro
dispositivo non conduce nessuna corrente in prima approssimazione, abbiamo una corrente in realtà del
tutto trascurabile.
Se inizio a cambiare la tensione del gate invece, per esempio applicando una tensione positiva rispetto al
source (quindi positiva del gate rispetto al substrato essendo tutte alla stessa tensione) ma minore della
tensione di soglia, in direzione verticale ho un condensatore MOS e in presenza di una polarizzazione
positiva dell’elettrodo di gate rispetto al substrato si genere una zona di svuotamento.
La tensione tende a respingere le lacune nella zona tra il substrato e l’ossido.
Si va a unire questa ziona di svuotamento alle altre due e si forma un'unica zona di svuotamento che
collega il source e il drain, ed è chiamata zona di canale.
in queste condizioni avremo che la corrente:

Anche in questo caso infatti i due terminali continuano a essere separati da una zona di svuotamento molto
ampia e quindi non può scorrere corrente ai capi del mio dispositivo.
Se però la tensione VGS supera il valore soglia VT:

Essendo source, drain e body allo stesso potenziale quindi la tensione tra gate e il substrato è >= VT, si
viene a creare la zona di inversione, zona contenente cariche libere (in questo caso elettroni)
nell’interfaccia tra il substrato e l’ossido.
La zona di inversione è un canale di cariche mobili che mette in comunicazione il source con il drain.
Il source e il drain che erano due serbatoi di tante cariche mobili (elettroni), che erano separate tra di loro e
non avevano modo di scambiarsi cariche tra uno e l’altro, ma nel momento in cui accade ciò attiriamo in
superficie una concentrazione non trascurabile di elettroni mobili tale per cui la loro concentrazione
diventa superiore alla concentrazione delle lacune del substrato e si forma questo canale tra il source e il
drain, costituito da cariche mobili.
Questa si chiama zona di canale perchè in condizioni di inversione esiste un canale di cariche libere che
mette in comunicazione Source e Drain.
Mentre nel condensatore MOS le cariche libere erano solo quelle generate termicamente, e quindi ci
voleva anche un certo tempo a formare questo canale dopo aver soddisfatto VGS >= Vt, nel transistore
MOSFET le cariche libere provengono sia dalla generazione termica ma sono anche fornite da source e
drain e vengono trascinate nel canale nella zona sotto il gate.
In questo modo la formazione del canale è molto più veloce.
Devo comunque garantire il fatto che il canale che si viene a formare per effetto della VGS metta
effettivamente in comunicazione S e D sovrapponendosi alle due zone drogate N+.
Per questo motivo è necessario che il gate debba essere parzialmente sovrapposto alla zona n+.

In questo modo garantisco che il mio canale che si è venuto a formare sia sovrapposto alle zone n+ in modo
da essere sicuro di metterle in comunicazione.
Ora abbiamo due zone con una grossa concentrazione di cariche libere poste in comunicazione tra di loro
attraverso un canale con delle cariche libere.
Se dopo aver applicato una VGS >= VT (viene quindi generato un campo elettrico nella direzione verticale,
asse y) vado ad applicare una differenza di potenziale tra terminale di D e di S, ho anche un campo elettrico
in direzione x e posso quindi spostare queste cariche avendo un passaggio di corrente.
VGS può essere usata per determinare se passa o non passa corrente e per VGS < VT il canale è considerato
inesistente, non passa corrente tra D e S, altrimenti può passare corrente tra D e S in presenza di
un’opportuna polarizzazione.

In queste condizioni ho sostanzialmente una resistenza a cui applico una differenza di potenziale.
La differenza di potenziale VGS può controllare il valore e la forma della dipendenza della IDS dalla VDS.

La prima situazione è quella in cui applichiamo una differenza di potenziale tra G e S(che viene tenuto a
potenziale di riferimento) di questo tipo:

E applico una differenza di potenziale tra il drain e il surce (VDS).

Abbiamo un canale di elettroni e se applico una differenza di potenziale tra il drain e il source, avendo il
drain un potenziale maggiore del source, gli elettroni si muoveranno dal source verso il drain, infatti avrò
con questa polarità un campo elettrico nella direzione in figura e quindi avremo la corrente da drain verso
source. Quindi per:

La corrente si prende sempre in verso opposto al verso degli elettroni.

Se aumento ancora la tensione tra gate e source invece, aumenta lo spessore del canale.
Lo spessore del canale aumenta di dimensioni perchè richiamiamo sempre più cariche liberi a formare il
canale, se consideriamo il canale come una resistenza avremo infatti:

Data la larghezza (w) e lo spessore (t), all’aumentare della dimensione dello spessore la resistenza
diminuisce.

Aumentando la tensione di gate mi aumenta lo spessore del canale (VGS aumenta), mi diminuisce la
resistenza del canale, quindi a parità di tensione VDS, avrò una corrente più grande.

Per VDS con valori piccoli, accade che ho un legame lineare della corrente in funzione della VDS (il canale
può infatti essere considerato come una resistenza ideale di valore costante) e accade che aumentando
VDS mi aumenta la corrente che scorre perchè diminuisce la resistenza.

Quindi il nostro MOSFET ha un comportamento di una resistenza il cui valore viene controllato da una
tensione, abbiamo una pendenza della nostra curva (ho un legame lineare tra corrente e tensione, avendo
infatti una resistenza) il cui valore diventa dipendente dal valore della tensione.
Tutto ciò però facendo l’ipotesi semplificativa che lo spessore del canale aumenti in modo uniforme lungo
tutta la direzione e vi rimanga per tutta la configurazione, in questo modo avremo un legame di questo
tipo.
Questo comportamento vale però solo per valori piccoli sella VDS, sto trascurando un fenomeno. Il
problema è che se applichiamo una differenza di potenziale tra Drain e Source il canale non è a un
potenziale costante.
Se prendiamo infatti due terminali con una resistenza di canale e applichiamo una differenza di potenziale,
se misuriamo la caduta di potenziale lungo tutta la resistenza noteremo una caduta di potenziale lineare:
Otteniamo che tra il terminale che teniamo a ground, S, e D, nel caso di resistenza, abbiamo un andamento
lineare ma se misuriamo il potenziale a varie ascisse otterremo una distribuzione lineare di questo tipo:

Lungo il canale l’andamento del potenziale elettrostatico è tale che la differenza di potenziale tra un punto
sull’asse delle ascisse x’ rispetto al source sarà una certa funzione di x, fi(x).
Questo fenomeno lo ho per tutti i valori di VDS diversi da 0, ma per VDS sufficientemente piccolo può
essere trascurato, però è sempre presente.
Cosa accade quindi al canale? La presenza del canale è determinata dal potenziale che ho in direzione y, in
questa direzione devo determinare la differenza di potenziale tra il gate e un punto del canale x’ e se questa
differenza di potenziale è maggiore di Vt ho presenza di canale.
Quanto canale ho in quel punto dipenderà da quanto VGx’ è maggiore di V.
Se uguale a VT ho la formazione del canale, mentre se è maggiore di VT il canale avrà un certo spessore.
Ma la differenza di potenziale tra il gate e un punto qualunque del canale non è più uniforme, non ho un
canale equipotenziale ma a potenziali diversi e quindi anche la differenze di potenziale tra il gate e un
punto del canale assumerà valori diversi.
In particolare se applico una VGS di 3V la differenza di potenziale tra il gate e il source è effettivamente di
3V, ma se applico una differenza di potenziale VDS ottengo che la differenza di potenziale tra G e il mio
canale diminuisce man mano che mi avvicino al drain. lo spessore del canale quindi non è più uniforme ma
parte dallo spessore più grande in corrispondenza del source fino ad arrivare a un valore minimo in
corrispondenza del drain.

Indicando con xi l’ascissa particolare che vado a considerare, abbiamo che VGxi che determina lo spessore
del canale, la posso scrivere come:
La mia VGxi sarà quindi data da VGS meno questa quantità (dove ho il segno meno perchè questo è il
potenziale di xi rispetto a 0), e ho per:

Lo vediamo dal grafico cosa devo sottrarre. Se applico una tensione VDS positiva allora VGXi sarà più piccola
rispetto al caso in cui xi=0.
Lo spessore del canale sarà:

che in prima approssimazione ha una dipendenza lineare in funzione di x con un decremento lineare lungo
il canale. Questa situazione la ho per qualunque valore di VDS, se VDS fosse piccolo è ovvio che il canale è
rastremato ma posso trascurare il fatto che lo sia, ma se VDS non è più trascurabile rispetto a VGS allora il
canale non ha una struttura uniforme.
Il valore della resistenza del canale quindi diventa funzione di x:

E in assenza della VDS era di spessore uniforme mentre ora diventa più rastremato per VDS != 0 e la
resistenza aumenta.

Se continuo ad aumentare VDS:

Il canale inizia a stringersi sempre di più, fino ad arrivare a una situazione particolare che si verifica:

Se aumentiamo la VDS e la facciamo arrivare a questo valore la differenza di potenziale tra gate e il canale il
punto L, valrà:

Accade che per questo valore di tensione il canale risulta praticamente strozzato, le sue dimensioni sono le
minime possibili che consentono di avere il canale (per VGS = VT si inizia a formare il canale infatti).
Se prendiamo questo come limite con canale assente, ciò significa che il canale è rastremato a tal punto che
in corrispondenza del canale viene strozzato.
Ho una strozzatura del canale, si parla di pinch-off.
Il canale diventa un triangolo e nel punto dove canale si unisce al drain si verifica la strozzatura.
La resistenza del canale quindi aumenta ulteriormente, essendo lo spessore sempre più diminuito,
e dal punto di vista elettrico, per Vs molto più piccole del valore di VGS – Vt posso considerare che lo
spessore del canale sia uguale lungo tutta la lunghezza L, il MOSFET si comporta come una resistenza con la
corrente che presenta una dipendenza lineare della tensione.
Mantenendo lo stesso valore di VGS, aumentando la VDS, la resistenza aumenta e quindi la corrente che ci
scorre diventa più piccola, il canale inizia a rastremarsi.
Si ottiene quindi che la dipendenza della corrente dalla tensione non è più lineare ma la curva inizia a
diminuire, la corrente tende sempre di più a diminuire fino al punto di pinch-off in cui la tensione VDS
raggiunge VGS – Vt.

Ecco che abbiamo una resistenza controllata dalla tensione VDS ma con una dipendenza non lineare, lo è
solo nella zona con VDS troppo piccole.
Cosa accade dopo alla corrente? Se VDS aumenta rispetto a VGS – VT, se per tensione VDS = VGS - VT la
strozzatura del canale avviene esattamente in corrispondenza del drain, se aumento VDS rispetto al valore
limite, il punto di strozzature avviene ad una ascissa del canale prima del drain stesso.
Se indico con xp la x di pinch-off, il punto in cui la differenza di potenziale tra il punto di canale e source è
esattamente pari a VGS – VT, allora la differenza di potenziale tra gate e questo punto del canale sarà data
da:

La differenza di potenziale tra il punto del canale e il gate sarà esattamente pari a Vt se si verifica in un
punto prima di arrivare dal drain.
Il canale di conseguenza si è accorciato, prima si chiudeva in corrispondenza del drain e ora si chiude in un
punto precedente, ma questa condizione di pinchoff rimane sempre la stessa, il punto in cui il canale si
strozza è quello in cui la differenza di potenziale rispetto a source è esattamente pari a:

xp varierà ma il canale si strozzerà in punto del canale in cui varia ciò, condizione di pinch-off.
Se applico VDS il canale si strozzerà a una differenza di potenziale pari a Vgs – Vt, e se aumento VDS il punto
di sposterà sempre di più verso source.
Nel mio dispositivo passa corrente in queste condizioni? Il canale parte da source ma non arriva verso il
drain, ma la corrente non solo continua a scorrere ma la posso considerare costante in prima
approssimazione.
Abbiamo delle cariche mobili, ho elettroni che si muovono dal Source verso il Drain, arrivano al punto di
pinch-off, nella zona in cui non c’è più il canale c’è una zona di svuotamento, ma le cariche mobili la
possono attraversare se trovano un campo elettrico favorevole al loro passaggio (è quello che accade nella
giunzione del diodo P/N) e posso avere una componente di drift, in questo caso il campo elettrico nella
zona di svuotamento è diretto esattamente dalle cariche positive presenti nella zona di svuotamento del
drain verso le cariche negative, gli ioni accettori fissi del substrato di tipo p.

Quindi gli elettroni che arrivano al bordo del canale trovano una zona di svuotamento con un campo
elettrico che ne favorisce il loro cammino, un campo elettrico che consente agli elettroni di proseguire il
loro percorso e quindi di arrivare al drain. La corrente non si interrompe, ho comunque la presenza di un
canale anche se più corto rispetto a prima, tra pinch-off e source c’è una differenza di potenziale pari a VGS
– Vt, mentre la differenza di potenziale applicata a questa zona è la differenza di potenziale tra zona di
pinch-off e il drain (quindi dipende da VDS, più è grande e più sarà grande questa differenza di potenziale):
Esiste un campo elettrico che attira elettroni verso il drain e quindi possono passare nella zona di
svuotamento. Ciò giustifica il passaggio di corrente. Ma perché è in prima approssimazione costante?

La resistenza tra quando il canale è strozzato in corrispondenza dl drain e quando il canale è nel punti di
pinch-off, quindi la Rc(x), la posso considerare:

Ho un canale che si chiude leggermente prima, deltaL è piccolo, quindi Rc(x) la posso considerare costante.
Se trascuro il fatto che il canale si è accorciato, la differenza di potenziale applicata al canale da quando il
canale si chiude in corrispondenza del drain o poco prima è sempre la stessa, perchè la differenza di
potenziale ai capi del canale è in queste condizioni costante e pari a:

E’ sempre questo valore nel punto in cui si strozza.


Se consideriamo quindi una resistenza con una forma triangolare, sempre della stessa dimensione e
applichiamo lo stesso potenziale ci scorrerà una corrente costante.
La corrente rimane costante perchè se trascuriamo in prima approssimazione che il canale si sta
accorciando, la resistenza del canale è la stessa dall’inizio in cui si verifica il pinch-off, la differenza di
potenziale applicata i capi del canale è sempre la stessa, quindi la corrente rimane costante.
Si potrebbe pensare che visto che applico VDS, quindi ai capi della zona di svuotamento ho una caduta di
potenziale che aumenta se VDS aumenta, non cambia la differenza di potenziale tra punto di canale e
source ma tra drain e il punto del canale cambia.
Ma ciò ha poco effetto sulla corrente, abbiamo visto che il valore del campo elettrico e quindi il potenziale
applicato alla zona di svuotamento ha poco effetto sulla corrente di drift, se l’effetto limitante limita i
portatori che arrivano, analogia in cui ho una cascata e ho un fiume piccolo, la quantità di acqua dipende se
il fiume è grosso o piccolo e non dall’altezza della cascata, e qui accade la stessa cosa.
Il campo elettrico che si ha nella zona di svuotamento è vero che aumenta ma il suo compito è quello di
transitare solo portatori che arrivano al punto di pinch-off ma la quantità dei portatori nell’unita di tempo
che riescono ad arrivare al punto di pinch-off è costante, legata alla resistenza del canale e dal fatto che la
differenza di potenziale rimane costante e pari a VGs – VT.
Abbiamo un apporto costante del numero di portatori per unità di tempo e tutti proseguono il loro
percorso per effetto campo elettrico presente, se il campo elettrico è più grande o più piccolo non ha
effetto sulla quantità di portatori nell’unità di tempo che arrivano al pinch-off stesso.

Otteniamo questo risultato. Si suddividono le zone di funzionamento del mio transistore in due zone ben
separate.
La zona con corrente costante è detta di saturazione perchè la corrente satura, inizia con una strozzatura
del canale in corrispondenza del drain e prosegue con tensioni maggiori di VGS - Vt in cui il punto di
strozzatura si sposta sempre di più nel canale verso sinistra e in prima approssimazione possiamo dire che
la corrente rimane costante, mentre la zona precedente viene chiamata zona triodo.
In zona triodo il MOSFET si comporta come una resistenza controllata dalla tensione in modo non lineare,
mentre in zona di saturazione ho una corrente costante in funzione di VDS ed assume un valore per un
particolare valore di VGS, in questa zona il MOSFET si comporta come un generatore di corrente controllato
in tensione.

Facendo la trattazione completa si ottengono due espressioni diverse per la corrente:

Id è proporzionale alla mobilità degli elettroni (gli elettroni nel canale che si stanno muovendo), dalla
capacità dell’ossido per unità di area, ovvero il rapporto tra la costante dielettrica dell’ossido e lo spessore
dell’ossido, e questi due parametri sono fissati dal costruttore.
Abbiamo poi un parametro geometrico in cui si interviene in fase di progettazione, dipendente dalla
larghezza e lunghezza del canale, legato alla resistenza del canale.
All’aumentare di L si ha una resistenza più grande e quindi la corrente è piccola, la corrente è inversamente
proporzionale alla lunghezza del canale mentre è direttamente proporzionale alla larghezza.
Ho poi la dipendenza dalla tensione, dove ho il primo termine (VGS – VT) * VDS con una dipendenza lineare
della ID dalla VDS, termine valido per tensioni VDS piccole, e più VGS > VT più il canale risulta essere spesso
e quindi la corrente aumenta.
Ho poi un termine al quadrato che tiene conto che poi la curva inizia ad avere un comportamento
quadratico, questa è l’espressione analitica della corrente in funzione della tensione in zona triodo.
Quando sarò in zona di saturazione invece:

Ho la stessa espressione in cui al posto di VDS sostituisco VGS – VT.


Il parametro k include le proprietà determinate dal processo di fabbricazione, prodotto della mobilità per la
capacità dell’ossido per unità di area e in zona di saturazione ID non dipende più da VDS e si comporta
come un generatore di corrente controllato con una tensione di controllo VGS – VT, tensione di overdrive,
tensione efficace quando VGS > VT, e avendola al quadrato ho un controllo quadratico, bastano piccole
variazioni della tensione di controllo per avere una dipendenza della corrente.
In zona di saturazione dobbiamo avere innanzitutto VGS > Vt e quanto deve essere maggiore influisce.

Considerando le caratteristiche di uscita, ho delle caratteristiche ideali della corrente ID in funzione della
VDS e nella zona di saturazione ho una corrente che dipende solo da VGS.
L’inizio della saturazione si ha quando quando VDS = VGS – VT.

La curva finale ID è una curva che nel piano ID-VDS è l’equazione di una parabola, ed è il luogo dei punti in
cui VDS = VGS – VT. Ho questa parabola che mi separa la zona triodo dalla zona di saturazione.
L’approssimazione di avere una corrente costante in zona di saturazione deriva dal fatto di aver detto che
Delta L è molto piccolo confrontato con la lunghezza del canale.
Se invece deltaL non è più trascurabile rispetto a L non è più vero che la mia resistenza di canale la posso
considerare costante, ho una resistenza con la stessa differenza di potenziale VGS - VT tra la base e il punto
di pinch-off ma ora si sta accorciando e quindi diminuisce, ho una resistenza che diminuisce a cui applico la
stessa differenza di potenziale e quindi la corrente aumenta.
La resistenza del canale non la posso considerare più costante e pari al valore iniziale del pinch-off ma devo
tener conto che la resistenza cambia, aumentando VDS si sposta punto di pinch-off verso sinistra, il canale
si accorcia e la corrente aumenta. Ecco che le caratteristiche non sono più orizzontali ma tendono ad
aumentare.
Ho un effetto simile a quello del transistore bipolare in cui avevamo l’effetto di Early all’aumentare della
VCE. Ho un qualcosa di analogo nel MOSFET, dove aumentando il potenziale VS la corrente non è costante
ma tende ad aumentare.
Anche in questo caso le caratteristiche assumono una certa pendenza e se vengono prolungate si vanno ad
incontrare sulla stessa ascissa per una tensione che per similitudine anche qui viene chiamata tensione di
early (anche se non abbiamo un effetto early), e qui l’effetto che abbiamo è detto effetto della
modulazione di canale.
Aumentando VDS in zona di saturazione il canale non rimane di lunghezza costante ma si accorcia sempre
di più e la corrente tende ad aumentare.
Se indichiamo con -1/lambda l’intersezione, si ottiene che la corrente in zona di saturazione ho un termine
aggiuntivo, ammetto che la mia zona di saturazione Id ha una dipendenza dalla VDS tramite il parametro
lambda. Non ho più quindi un generatore di corrente controllato in tensione ideale, ma ho delle
caratteristiche con una certa pendenza.

lambda*VDS esplicita il fatto che ID è dipendente dalla tensione VDS.


Molto spesso trascureremo l’effetto della modulazione di canale, considerando lambda = 0.
Questa è la caratteristica di uscita del nostro dispositivo, ID in funzione di VDS e VGS (ho infatti due
parametri di uscita e uno di ingresso)

Quando siamo nel caso in cui VGS > VT abbiamo quindi queste due zone, separate dalla parabola.
Ci sono due regioni di funzionamento in cui il MOSFET si trova a funzionare nel primo quadrante, le altre
due si hanno in corrispondenza dell’origine, è interdetto quando non scorre corrente e poi si ha il
funzionamento in zona VGS <= VT.
Il comportamento ideale sarebbe avere una corrente di drain costante al variare della tensione fra drain e
source ma nella realtà le caratteristiche mostrano una dipendenza più o meno pronunciata dalla VDS
stessa, ciò dipende dalle dimensioni del transistore, dal rapporto dell’accorciamento che ha subito il canale
dovuto al pinch-off e la lunghezza del canale stesso. Se piccolo allora inclinazione piccola, altrimenti
inclinazione delle curve non più trascurabile.
La caratteristica d’ingresso non viene riportata nel transistore ideale perché considera l’ossido di gate come
ossido ideale è un terminale isolato e quindi la corrente che scorre nel gate è identicamente nulla. La
caratteristica non viene riportata perché data dall’espressione IG = 0, qualunque sia la VGS applicata.
La caratteristica che viene usata per schematizzare il comportamento del MOSFET è la trans-caratteristica,
riportata in zona di saturazione, regione in cui vale quest’espressione:

E la trans-caratteristica è una curva in cui viene rappresentata la corrente ID in funzione della VGS per vari
valori della VDS, per un VDS tale da essere in zona di saturazione:

E viene chiamata trans-caratteristica perché rappresenta la corrente di uscita in funzione di una tensione
alla porta d’ingresso, la VGS. L’aspetto della curva è una parabola nel piano che parte dal valore VT,
abbiamo una parabola shiftata nel punto VGS = VT.
E’ una caratteristica che ci mostra come la corrente risulta essere nulla in saturazione se VGS < VT, dovuto
al fatto che non esiste il canale.
Questa trans-caratteristica mostra anche che abbiamo un valore di VT positivo, abbiamo un MOSFET a
canale di N; in quanto serve una tensione positiva maggiore della tensione soglia per avere una corrente !=
0 e mostra che per VGS > Vt la dipendenza è di tipo quadratico tra la corrente di uscita e la tensione di
controllo.

Questi tipi di MOSFET che stiamo considerando di cui abbiamo analizzato il comportamento fisico in modo
qualitativo, sono i cosiddetti MOSFET ad arricchimento.
Sono dei MOSFET che quando realizzati tra Source e Drain non prevedono l’esistenza il canale, dobbiamo
formare noi il canale tramite una tensione. Esistono però anche altre categorie di MOSFET chiamati
MOSFET a svuotamento, in cui il costruttore che ha realizzato il dispositivo ha già realizzato il canale tra le
due zone Source e Drain, presente quindi prima di applicare una qualunque polarizzazione.
Se il substrato è di tipo p allora in superficie sarà contro-drogato di tipo n cosi da formare il canale di
collegamento.
La tensione di soglia non è più positiva, il canale anche per VGS = 0 risulta essere già presente visto che ho
già il collegamento tra source e drain, ma se vogliamo togliere il canale nel caso di substrato di tipo p
dobbiamo allontanare gli elettroni posizionati sulla superficie del costruttore e quindi dobbiamo applicare
una tensione negativa. La tensione di soglia VT è quindi negativa.

Notiamo che per VGS = 0 abbiamo già un canale, per impedire il passaggio di corrente devo rimuovere gli
elettroni che sono stati posizionati con il drogaggio all’interfaccia tra il substrato e l’ossido in modo da
collegare drain e source e quindi devo applicare una tensione negativa e quindi il canale si svuota e non ho
passaggio di corrente per tensione negative minori di VT.
Noi tratteremo MOSFET ad arricchimento, per cui VT > 0, e quindi devo formare il canale applicando
un’opportuna tensione sul gate e considereremo l’effetto di modulazione del canale trascurabile e quindi
useremo l’espressione con lambda uguale a 0.
Questi sono i MOSFET a canale N, esiste anche il dispositivo duale detto MOSFET a canale P.
Questo è un MOSFET in cui ho il substrato di tipo N, source e drain drogati p+ e devo formare il canale tra il
source e il drain, ho un comportamento analogo, ma cambiano tuti i segni delle correnti e delle tensioni.
Devo formare un canale, devo attrarre lacune in superficie, devo quindi applicare una tensione di gate
negativa, la tensione VGS di funzionamento sarà negativa e la tensione soglia sarà negativa.
I MOSFET a canale P si differenziano dai MOSFET a canele N perchè hanno una tensione negativa che deve
essere inferiore alla VT.
Abbiamo VT < 0, VGS < 0 e la VGS deve essere < VT per formare il canale.
Dobbiamo tenere conto che sono le lacune a muoversi, quindi se applico una tensione minore di VDS
positiva le lacune spinte verso il source. Il trasporto tra source e drain è qui ottenuto tramite una corrente
di lacune e abbiamo che il nostro dispositivo va a funzionare nel terzo quadrante.
Le caratteristiche del nostro MOSFET sono quindi riportate nel terzo quadrante.

Il MOSFET a canale P è un dispositivo che si comporta in modo del tutto analogo rispetto al MOSFET a
canale n, devo formare però un canale di lacune visto che il trasporto è dovuto a lacune, devo avere una
tensione negativa per indurre il canale e avrò per VDS negative una corrente negativa tra drain e source.
Se cambio i segni di tensioni e correnti però ottengo esattamente la descrizione delle stesse medesime
caratteristiche.
Dobbiamo tenere presente però che le cariche mobili in questo caso sono lacune, quindi nella costante k ci
rientra la mobilità dei portatori e a parità di tutti gli altri parametri, considerando le stesse dimensioni
geometriche e applicando le stesse tensioni in modulo (coi loro segni opportuni), la corrente IDS sarà di
entità diversa, in un caso moltiplicata per la mobilità degli elettroni mentre in un altro caso per la mobilità
delle lacune.
Se prendo due MOSFET perfettamente equivalenti, uno a canale p e uno a canale n, a parità di parametri la
corrente del transistore p è minore della corrente del transistore n.
Nella realtà accade che i due transistori MOSFET avranno due tensioni di soglia differenti, VT in modulo
diverse, ma fortunatamente grazie all’evoluzione tecnologica si ha la possibilità di realizzare dei dispositivi
MOSFET con lo stesso modulo di VT, e dobbiamo tenere presente che anche con la stessa VT rimane il
problema della mobilità, legata alla tipologia di comportamento fisico del dispositivo.
La corrente dipende però anche da due parametri, W e L, che quando realizzo il circuito integrato
elettronico l’utente può andare a modificare.
Si può allora progettare un MOSFET P che abbia delle caratteristiche complementari al MOSFET N andando
a modificare il valore W/L, due MOSFET geometricamente diversi con dimensioni diverse ma in modo tale
che applicando le stesse tensioni in modulo si abbia una stessa corrente in modulo.
Si può quindi compensare la ridotta mobilità con un aumento della larghezza di canale W.
Si parla di MOSFET complementari e la tecnologia che ci permette di fare ciò è detta CMOS
(Complementary MOS), il progettista agendo opportunatamente su W e L può realizzare due MOSFET con
caratteristiche perfettamente complementari.
La possibilità di realizzare MOSFET perfettamente complementari è alla base di tutta l’elettronica digitale e
della possibilità della realizzazione dei chip dei microprocessori sul silicio

Simboli circuitali

Il MOSFET a canale n viene disegnato con tre terminali, una barretta verticale separata da un'altra barra che
mette in evidenza che il gate è un terminale isolato dagli altri due, e la barra verticale che indica il canale,
esiste l’ossido e quindi il gate è isolato dal canale.
Abbiamo poi la presenza di una freccia, messa sul terminale di source che indica il verso della corrente che
scorre all’interno del dispositivo (a canale n scorre da drain verso source).
Tutto ciò in ambito analogico.

In ambito digitale invece, quando si realizza un circuito integrato il MOSFET a differenza del transistore
bipolare è esattamente simmetrico e drain e source possono essere scambiati tra di loro e non viene più
indicata la freccia ma viene indicato il terminale a potenziale più alto che è il drain e quello a potenziale più
basso che è il source e non si mette più il verso della freccia.
Nei simboli in ambito digitale source e drain sono interscambiabili e nel canale n ho il drain a potenziale più
alto del source mentre nel canale p ho il source a potenziale più alto del drain.
Questo non vale per componenti discreti (acquistati singolarmente), il transistore MOSFET non è
simmetrico perchè internamente realizzato con una connessione fissa tra source e substrato quindi il
source viene identificato con un terminale che ha il collegamento con il substrato.
Il MOSFET a canale p cambia il verso della freccia perché sono le lacune che si muovono da source verso
drain, i portatori in entrambi i casi si muovono da source verso il drain solo che nel canale n si spostano
elettroni e la corrente va da D verso S e nel canale p si spostano le lacune e si ha lo stesso verso della
corrente quindi si ha da S verso D.
Se prendo il piano VDS e IDS ecco che ho le caratteristiche nel terzo quadrante.
In ambito digitale si mette un pallino in corrispondenza del gate che indica che il canale p deve avere una
tensione negativa per poter funzionare mentre il canale n deve avere una tensione positiva.
Questo simbolo ci consente di capire quali MOSFET sono a canale n e quali a canale p.

In realtà il simbolo più completo ha quattro terminali, nei componenti discreti il contratto di substrato non
viene rappresentato perché internamente collegato al source mentre nei componenti integrati è presente e
viene indicato come un terminale e si distinguono i MOSFET ad arricchimento da quelli a svuotamento per il
canale realizzato in modo tratteggiato che indica che ho un MOSFET in cui se voglio il canale devo andarlo a
realizzare tramite tensione applicata al gate, mentre in caso di svuotamento ho già la presenza del canale.
Il collegamento di body ha la freccia opposta nel caso di canale n o p (in figura abbiamo il canale n).

Vediamo adesso dei circuiti in cui è presente l’utilizzo del BJT e del MOSFET che hanno la caratteristica di
essere componenti attivi, differenza rispetto al diodo, e sono quindi in grado non solo di amplificare il
segnale ma anche di fornire amplificazione della potenza complessivamente.
I transistori per poter funzionare correttamente hanno varie zone di funzionamento, nel caso di BJT ne
abbiamo 4, mentre nel caso di MOSFET abbiamo visto la zona triodo, la zona di saturazione e la zona di
interdizione se non è presente il canale.
Dobbiamo fissare il loro punto di riposo per studiare le varie applicazioni.
In ambito analogico la zona dove voglio andare a farli funzionare è quella in cui funzionano come generatori
di corrente controllati o da una corrente o da una tensione. Il transistore bipolare dovrà funzionare in zona
attiva diretta (generatore di corrente controllato in corrente, o se vogliamo anche qui in tensione) e il
MOSFET invece in zona di saturazione(generatore di corrente controllato in tensione).
Studio quindi le zone dove ho le caratteristiche piatte, una corrente costante al variare della tensione di
uscita funzione però di una variabile di ingresso e dobbiamo fissare il punto di funzionamento di questi
dispositivi in queste particolari zone, questa operazione viene chiamata polarizzazione, si va a collegare il
transistore al generatore di tensione costante in modo da determinare i punti di funzionamento del
transistore.

Polarizzazione Transistore BJT

Realizzo il circuito di polarizzazione, cosi da determinare le condizioni di lavoro del mio transistore,
operazione fondamentale per un funzionamento corretto del dispositivo.
L’operazione di polarizzazione transistore è equivalente ad usare un automobile e metterla in moto.
Il transistore oltre a essere usato deve essere collegato ad un alimentazione costante che fornisce la
corrente, la tensione che consentono al transistore funzionare in un particolare punto delle sue
caratteristiche. Fisso il punto in cui si trova e poi applico il segnale e lui eserciterà sul segnale delle
operazioni che sono diverse a seconda della zona in cui si trova il transistore
Il metodo più semplice per poter andare a polarizzare, ho un dispositivo a due porte, è quello di collegare
entrambe le porte a un generatore di tensione tramite delle resistenze.
Dato un transistore bipolare, prendiamo quello npn che è quello più utilizzato con prestazioni migliori
perché sono gli elettroni a di muoversi da emettitore verso collettore (e quindi per la mobilità più alta).
Avremo la porta di ingresso con IB entrante (deve fornire infatti lacune), la VCE positiva, IC positiva entrante
e IE positiva uscente.
Collego la base a un generatore di tensione costante VBB tramite una resistenza di base mentre il collettore
viene collegato ad un generatore di tensione costante VC tramite la resistenza Rc.
Il terminale di emettitore è a comune tra ingresso e uscita, ho la configurazione a emettitore comune.
A seconda delle caratteristiche del dispositivo che sto usando, del tipo del BJT, e del valore di VBB, VCC, RB
e RC vado a fissare il punto di lavoro.
Se voglio progettare il mio circuito di polarizzazione devo anche saperlo risolvere. Come tratto un circuito in
cui ho la presenza del transistore bipolare con equazioni di funzionamento fortemente non lineari? (visto
che le equazioni sono quelle di Ebers-moll, e prevedono tutte termini esponenziali)
Come abbiamo fatto col diodo vediamo come risolvere il circuito.
Iniziamo dalle equazioni di KIrchoff alle maglie, che rimangono valide anche in presenza di componenti non
lineari, avremo:

Le incognite sono i valori del punto di riposo del transistore bipolare, la corrente e la tensione di ingresso e
la corrente e la tensione di uscita. Trovo i segni indicati per i versi in cui abbiamo le correnti.
Abbiamo 4 incognite e servono almeno altre due equazioni. Uso le caratteristiche del transistore BJT:

Ho le caratteristiche di ingresso in cui la corrente di base viene graficata come funzione della VBE e della
VCE e le caratteristiche di uscita funzione della VCE e IB. Qui abbiamo un oggetto a tre terminali con
terminale comune, due porte e quindi ho due equazioni caratteristiche e 4 incognite.
Come risolvo il circuito in queste condizioni? Anche in questo caso potrei usare un metodo numerico, le
caratteristiche di ingresso e di uscita, le posso ricavare risolvendo le equazioni che sono date da Ebers-Moll
cosi da vedere la dipendenza della IB da VBE e VCE e della IC dalla VCE e IB.
Opportunatamente scritte mi consentono di avere un legame tra queste quantità.

Ho quindi altre due equazioni, ma queste contengono funzioni esponenziali e quindi la soluzione in forma
chiusa non riesco a fornirla in modo analitico, ho tutte equazioni trascendenti e quindi devo ricorrere ad un
simulatore numerico per risolverlo.
Posso però usare un metodo grafico col transistore BJT ma solo con opportune ipotesi, devo usare le
caratteristiche grafiche del mio dispositivo con le cautele legate al fatto che le caratteristiche grafiche
variano da un dispositivo all’altro.
Se il dispositivo che voglio andare a polarizzare dispongo delle sue caratteristiche allora potrò andare a
usare il metodo grafico ma con l’ipotesi che le caratteristiche di ingresso non mi dipendono dalla VCE
(quindi con l’ipotesi che l’effetto early sia trascurabile):

A causa dell’effetto early esistono una famiglia di curve, dovute a diversi valori di VCE. All’aumentare della
tensione VCE diminuisce la corrente di base:

Se la corrente di base è fortemente dipendente dalla VCE non so quale caratteristica utilizzare, ma se mi
trovo nelle condizioni in cui l’effetto della dipendenza della corrente di base dalla VCE è trascurabile, la
caratteristica di ingresso è unica per qualunque valore della VCE e posso andare a risolvere la maglia di
ingresso con un metodo grafico.
Riporto sul piano IB-VBE l’equazione alla maglia di ingresso, la retta di carico, che intercetta l’asse delle
ascisse per VBE = VBB e l’asse delle ordinate per IB = VBB/RB.
Ho ottenuto la mia retta di carico e l’intersezione tra la retta di carico e la curva della caratteristiche di
ingresso del dispositivo mi va a determinare il punto Q di lavoro per quanto riguarda le grandezze di
ingresso, cosi da determinare i valori di IBQ e VBEQ. Le due incognite della porta di ingresso le poso
determinare quindi con un metodo grafico a patto che il dispositivo sia tale da avere le caratteristiche di
ingresso indipendenti dalla VCE.
Mi mancano i due parametri di uscita, posso realizzare il concetto di retta di carico nelle due caratteristiche
di uscita, ho la IC in funzione della VCE per vari valori della IB:
Ho una famiglia di curve, è inevitabile visto il comportamento del dispositivo, ma tra tute queste vado a
selezionare quella con IB = IBQ. Devo quindi prima aver risolto la maglia di ingresso, da quella ricavo IBQ (o
se funzione di VBE, VBEQ) e dopodichè dalla famiglie di curve seleziono quella corrispondente alle
caratteristiche di ingresso determinate.
Successivamente sullo stesso piano determino la retta di carico e in questo caso l’intersezione con l’asse
delle ascisse è VCC mentre quella con l’asse delle ordinate è VCC/RC e l’intersezione tra la retta di carico e
la curva corrispondente al parametro di ingresso determinato mi va a determinare il mio punto di riposo,
dato da ICQ e VCEQ. Ho 4 incognite determinate e quindi ho finito la mia analisi del circuito.
L’effetto Early lo trascuro nelle caratteristiche di ingresso, nelle caratteristiche di uscita non ho bisogno di
verificarlo. Il problema è per lo più legato al fatto di avere a disposizione le caratteristiche del dispositivo.

Esiste un metodo grafico semplificato, delle due caratteristiche di ingresso il costruttore non fornisce
tipicamente nessuna delle due o al massimo fornisce quella di uscita.
C’è la possibilità di semplificare la trattazione usando un metodo parzialmente grafico, la caratteristica di
ingresso è analoga alla caratteristica del diodo, faccio l’ipotesi che la caratteristica di ingresso non vari al
variare di VCE ma con l’ulteriore ipotesi che VBE quando sono in zona attiva diretta non si discosti da Vy più
di 0.1_0.15V.

Quando polarizzata in diretta, prendo allora come buona approssimazione:

A questo punto non mi serve neanche la caratteristica di ingresso, sono in grado di risolvere la maglia di
ingresso:

dove conosco VBE avendo fatto questa ipotesi:

Se ipotizzo che la mia giunzione BE sia polarizzata in diretta e che la tensione ai suoi capi sia 0.7, dei 4
parametri uno l’ho già fissato e ciò mio consente di conoscere IB senza usare le caratteristiche.
Non uso più le caratteristiche e basta utilizzare l’equazione alla maglia, ora ho un’equazione e un’incognita.
Continuo a usare invece le caratteristiche di uscita.

Trovato IBQ uso la caratteristica di uscita e la retta di carico.


I metodi grafici possono però essere usati se conosciamo esattamente le caratteristiche grafiche del
dispositivo, se lo sostituisco per esempio, devo ripartire da capo.
Sono inoltre più grafici da usare e per ogni singolo transistore le cose si complicano dal punto di vista
pratico.

Circuiti equivalenti per ampi segnali semplificati


Rinuncio alla possibilità di avere risultati precisi o molto vicini alla realtà, come nel metodo numerico e
grafico, e utilizzo dei metodi approssimati che però mi consentono di fare un analisi del circuito in modo
veloce ed efficace. Tramite un simulatore potrò poi verificare se le approssimazioni sono eccessive o se il
comportamento non cambia eccessivamente.
Queste approssimazioni si ottengono da una semplificazione delle equazioni di Ebers-Moll.

Se faccio delle ipotesi iniziali sullo stato del transistore bipolare e sulla zona di funzionamento del BJT, le
equazioni di Ebers-Moll le posso semplificare.
In zona attiva diretta ho semplificato le equazioni di Ebers-Moll e ho ottenuto che Ic = Bf * IB.
Posso fare questo tipo di ragionamento per qualqunque zona di funzionamento del mio transistore.
Se sono in zona attiva diretta per l’NPN la giunzione BE è polarizzata in diretta

e posso concludere con le ipotesi fatte sul modello di Ebers-Moll:


Circuitalmente ciò significa che tra base ed emettitore abbiamo un generatore di tensione di valore Vy, la
giunzione BE la tratto come un diodo sostituendola col modello a caduta costante, mentre dall’altra parte
ho un generatore di corrente controllato in corrente tra C e E, dove i versi delle correnti sono da prendere
correttamente, IB e Ic entranti, BF è positivo e IE è presa uscente:

Questo è il mio modello, che deriva dalle equazioni di Ebers-Moll, se faccio queste ipotesi in zona attiva
diretta posso semplificare alcuni termini.
Se andiamo ad analizzare l’altra tipologia di configurazione, in zona di saturazione la giunzione BE è ancora
polarizzata in diretta quindi posso ancora sostituirla con il generatore di tensione però se guardo le
caratteristiche di IC in funzione della VCE le curve che si ottenevano sono :

Le caratteristiche in zona di saturazione possono essere considerate verticali e posso considerare il


transistore equivalente a un generatore di tensione equivalente a VCEsat.
Si considerano queste caratteristiche collassate perfettamente verticali e quindi si può assimilare in prima
approssimazione il comportamento del dispositivo un generatore di tensione indipendene di valore VCEsat:

Questo è il modello equivalente per grandi segnali dove il punto di partenza è sempre dato dalle equazioni
di Ebers-Moll. VCESAT è piccola perché è la differenza tra due tensioni polarizzate in diretta.
Questo per quanto riguarda NPN.
Per quanto riguarda PNP le considerazioni sono analoghe ma con l’attenzione ai versi delle correnti, ho
l’emettitore verso l’alto perchè è a potenziale più alto, ho la corrente da emettitore verso collettore, e si
muovono lacune, accolte dal collettore.
La corrente di base è uscente perchè deve fornire elettroni che entrano nella base quindi ho una corrente
verso l’esterno. Per il resto ho risultato analoghi:

La corrente di base è uscente, la corrente di collettore è uscente e la corrente di emettitore è entrante.


La giunzione BE è polarizzata direttamente, l’emettitore è a potenziale più alto della base però e quindi
sostituisco il generatore di tensione di valore VY che ha ora il + verso E e il – verso B. Il generatore di
corrente è positivo con corrente uscente (BF > 0) e ciò mi dà una corrente di collettore uscente di valore
pari a BF*IB, ho un circuito analogo con attenzione solo ai versi delle tensioni e delle correnti. Lo stesso in
zona di saturazione.

Ho due generatori di tensione ma sono in zona saturazione e quindi BE e BC sono polarizzate entrambe
positivamente. BE è polarizzata direttamente e quindi ho il + verso l’emettitore e il – verso la base, le
caratteristiche del pnp sono nel terzo quadrante quindi la VCE è negativa e quindi la VEC è positiva, quindi
anche in questo caso il + è verso l’emettitore e il – verso il collettore.
Il modello ci consente di rendere lineare circuito, ho una linearizzazione del comportamento del
componente che è il transistore bipolare, quindi risolvo il circuito ma devo effettuare le verifiche perché
queste sono tutte ipotesi da verificare.
Se faccio l’ipotesi di zona attiva diretta devo fare la verifica sul parametro libero non fissato dal modello,
quindi la verifica da fare sarà sulla VCE. Devo determinare dal circuito IBQ, da questa la ICQ e quindi VCEQ e
se è maggiore di VCEsat ho verificato che sono in zona attiva diretta.
Per il PNP la verifica non è su VCE ma su VEC, oppure VCE <= -0.3V. (devo cambiare tutti i segni, le ho nel
terzo quadrante)
Se sono in zona di saturazione la verifica, siccome ho impostato la tensione VCE del modello, la verifica
viene fatta sulle correnti.
Verifico che la corrente non è così piccola come nella zona attiva diretta, ma grande, e la verifica andrà fatta
sulla iC rispetto alla iB. Se iC < Bf*IB, l’ipotesi di saturazione è verificata, stessa verifica in PNP dove iC e iB
prese in modo tale che siano entrambe positive con Bf positivo.

Nella zona di interdizione il dispositivo è spento, la zona attiva inversa invece non viene utilizzata
tipicamente nel campo analogico.

Posizionamento del punto di riposo


Comprendiamo la necessità di polarizzare il BJT e di parlare di posizionamento del punto di riposo, perché
deve essere scelto in modo corretto e perché si richiede che rimanga stabile nel tempo e indipendente sia
da fattori esterni (per esempio il cambio della temperatura) sia da modifiche alle caratteristiche del
dispositivo (se cambio il transistore con un altro nominalmente uguale vorrei che il punto di riposo rimanga
lo stesso).

Abbiamo un generatore di segnale in più dove nella configurazione a emettitore comune viene applicato
alla base. La notazione VCC indica che il nodo è collegato al + del generatore di tensione VCC rispetto al
nodo in basso collegato invece al ground.
Andiamo a valutare il punto di riposo, considerando le condizioni quando disattivo il generatore di segnale
e mantengo i generatori costanti:

Ipotizziamo di avere a disposizione le caratteristiche grafiche del dispositivo.


Considerando la caratteristica di ingresso:
L’intersezione tra la retta di carico di ingresso (determinata da VBB e RB) e la caratteristica del dispositivo è
il nostro punto di riposo. Traccio allora le caratteristiche di uscita, la retta di carico della caratteristica di
uscita, determino il punto di riposo e valuto ICQ e VCEQ. Questa è la condizione di riposo.

Se considero invece:

Applicando per esempio un generatore di tensione ad onda triangolare, il generatore si andrà a sommare
alla VBB:

Se considero l’intersezione tra la retta di carico con l’asse delle ascisse, prima il punto valeva VBB,
applicando una variazione di questo tipo allora l’intersezione varierà come indicato in figura, tra i due
estremi, e la stessa cosa accadrà all’intersezione con l’asse delle ordinate (che sarà data da (VBB + vi)/RB) e
quindi ottengo un fascio di rette parallele.
Ho una retta di carico che istantaneamente si muove, si determina l’intersezione delle rette con la
caratteristica e avremo la IBQ e la VBEQ che varieranno nel tempo.
Sovrapposto al valore medio IB che avevamo terminato, si va a sovrapporre un segnale variabile nel tempo,
ib, la cui somma ci da la corrente istantanea complessiva iB.
Questa variazione sulla iB si ripercuote anche sulle caratteristiche di uscita, la retta di carico resta costante
ma le caratteristiche che devo andare a considerare sono più di una, sono tutte le caratteristiche
nell’intervallo tra i due limiti iB1 e iB2.
Il punto di lavoro varierà sulla retta di carico nel tempo e mi dirà che la VCE di uscita sarà data da
VCEQ + vce. Applicando un segnale variabile in ingresso ho ottenuto un tensione di uscita variabile nel
tempo.
Se voglio usare il transistore in zona attiva diretta allora il punto di lavoro dovrà essere all’interno della zona
attiva diretta (dove ho le caratteristiche piatte o se abbiamo l’effetto early leggermente inclinate).

Devo però anche garantire che il transistore rimanga all’interno di quella zona quando viene applicato il
segnale stesso. Il punto di lavoro istantaneo si muoverà lungo la retta di carico e devo stare attento a fare in
modo che il transistore rimanga in zona attiva diretta anche quando è applicato il segnale di ingresso. Se
infatti esce dai limiti e trasla, per esempio andando a valere VCC, stiamo dicendo che IC = 0 e vce = VCC.
Non scorre quindi più corrente su Rc e il transistore si interdice in questo punto di lavoro, si spegne e non
risponde più a nessun segnale, vce rimane bloccata al valore VCC.

La stessa cosa accade se vado a raggiungere l’estremo opposto, a un certo punto il BJT entra in saturazione
e allora tutte le caratteristiche collassano e un segnale applicato alla corrente di ingresso di base non viene
recepito e il nostro transistore diventa un generatore di tensione costante, la tensione di uscita rimane
circa pari a VCEsat.
Devo stare attento al fatto che Q sia in zona attiva diretta e ci deve anche rimanere anche dinamicamente,
non deve finire in interdizione o in saturazione. Si parla di controllo della dinamica.
Non devono accadere cose di questo tipo:

Se scelgo in modo sbagliato il punto di lavoro (QA), ancora in zona attiva diretta, ma con una retta di carico
molto pendente (VCEQ molto vicina a VCC), segnali che tendono a spostarlo verso destra tendono a
mandarlo in interdizione. Nel caso in cui ho QB sono ancora in zona attiva diretta ma basta una variazione
verso sinistra molto piccola affinchè vada in saturazione.
La scelta solitamente fatta è quella di posizionare Q al centro delle caratteristiche, cosi da avere una buona
escursione positiva e negativa dei segnali senza rischiare che il BJT vada in interdizione e in saturazione.
Se andrà in quelle zone il segnale di uscita smette di essere triangolare e assume una forma diversa, si parla
di distorsione di uscita (es. ho un problema audio se il nostro amplificatore non è in grado di riprodurre una
replica perfetta in uscita del segnale di ingresso, potrà essere amplificata ma vogliamo che sia mantenuta la
tipologia di forma). E’ mantenuta se garantisco che il BJT non vada in saturazione o in interdizione.

Se faccio un ridimensionamento del circuito in modo tale che funzioni in zona attiva diretta e che ci rimanga
anche con l’applicazione dei segnali previsti, voglio che rimanga in quella posizione indipendentemente
dalle variazioni delle condizioni ambientali (per esempio la temperatura) e alle variazione dei parametri del
transistore (per esempio le variazioni di Bf).
Ci focalizziamo quindi sulla zona attiva diretta e abbiamo la necessità di fissare una corrente continua
costante di collettore o di emettitore che sia calcolabile, predicibile e poco sensibile a questa variazione,
requisito che deve essere soddisfatto da un circuito di polarizzazione.
Polarizzazione dei circuiti discreti
Supponiamo di comprare un transistore bipolare e vogliamo vedere come polarizzarlo correttamente.
Nel caos più generale, nella configurazione a emettitore comune posso avere 2 generatori con 2 resistenze,
ma tipicamente quando vado ad operare ho un'unica alimentazione, un unico generatore. Vediamo come
polarizzare correttamente il BJT avendo a disposizione un unico generatore di polarizzazione.

Posso prendere un unico generatore VCC a cui collego sia la resistenza RB che RC, usate per polarizzare il
BJT. Tipicamente il generatore di tensione indipendente non viene esplicitamente indicato ma si indica con
delle frecce, come in figura, dove la freccia indica il terminale + del generatore di tensione e ciò implica che
con questa configurazione il terminale – è attaccato al terminale di riferimento.
Questo è il circuito più semplice che possiamo pensare per polarizzare, dobbiamo determinare un
particolare valore per le nostre grandezze in modo che punto di lavoro si trova in zona attiva diretta.
Questo schema semplificato presenta però l’inconveniente di non garantire di ottenere buon punto di
riposo. Vediamo perché.
Ho quindi l’emettitore a GND, la base collegata a VCC tramite RB, il collettore collegato al + di VCC tramite
RC, e la polarizzazione viene detta a IB costante.

In questa tipologia di circuito, per risolvere devo fare delle ipotesi di lavoro. Se suppongo che il BJT sia in
zona attiva diretta, tra B e E c’è un generatore di tensione costante di valore pari a Vy. Quindi posso dire
che IB è pari alla differenza di potenziale applicata i capi della resistenza diviso la resistenza stessa, un nodo
è a tensione VCC e l’altro nodo è a tensione pari a Vy, quindi:
La IBQ è praticamente costante, infatti VCC è un generatore di tensione costante, RB è costante, Vy è la
tensione ai capi della giunzione che può non essere così costante ma se risulta essere trascurabile rispetto a
VCC posso dire che ho una corrente costante.
Se sono in zona attiva diretta posso dire che VBE = Vy e che :

Tra C ed E c’è un generatore di corrente controllato in corrente, mi accorgo che la mia corrente di collettore
che voglio costante mi dipende da un termine costante IBQ ma dipende anche da Bf che cambia anche tra
vari transistori che sono nominalmente uguali. Per Bf il costruttore ci da dei range, un valore minimo e un
valore massimo, e ciò varia fortemente in funzione del dispositivo che vado a considerare. Ho anche delle
dipendenze della temperatura in quanto può far cambiare anche af e quindi anche Bf.
Ho quindi un sistema di polarizzazione che non va bene, ottengo un valore di IC per un particolare valore
nominale di Bf ma se cambio BF allora Ic cambia allo stesso modo.
Questo polarizzatore consente di polarizzare quindi il BJT ma non garantisce di avere un punto di lavoro Q
indipendente dalle caratteristiche specifiche del mio BJT.

Posso allora pensare ad un altro schema in cui complico il circuito aggiungendo una resostenza R2 tra base
e terminale di riferimento. Si parla di polarizzazione a VBE costante.

La base è collegata tramite R1 a VCC e tramite R2 a GND. Quando si applica questo circuito e si va a fare
questo tipo di polarizzazione, R1 e R2 vengono scelte in modo tale che le due correnti i1 e i2 siano molto
maggiori di IB, che in zona attiva diretta tipicamente è dell’ordine del microA.

Tutta la corrente che scorre in R1 va a finire in R2, nella realtà una piccola parte andrà a finire nella base.
Quando si verifica questa condizione si parla di partitore pesante, (detto cosi perchè costituiscono un
partitore di tensione). Se trascuro IB è come se il nodo B fosse tagliato dal punto di vista delle correnti e:

Le due resistenze sono in serie se IB è trascurabile.


L’errore che compio è tanto più piccolo quanto più piccola è la iB rispetto a i1 e i2.
E’ un partitore pesante perché tutta la corrente passa dal partitore.
La VBE dipende solo da componenti esterni di fatto, è costante ed ecco perchè la polarizzazione prende
questo nome. La VBE prima valeva Vy e poteva variare, ora è fissata.
Se cambio il transistore e ne metto un altro basta che abbia una corrente di base trascurabile.
per quanto riguarda però la dipendenza della ICQ dalla VBEQ, troviamo una dipendenza esponenziale.

VBEQ può essere considerata costante ma ancora una volta se ci fosse una piccola variazione della IB (che
può variare per esempio con la temperatura) ottengo una variazione della VBEQ e può accadere che piccole
variazioni della VBEQ si ripercuotono in modo esponenziale sulla ICQ,

Possiamo nuovamente fare una modifica e aggiungere una resistenza sull’emettitore, ottengono una
polarizzazione a 4 resistenze.

Il collettore è collegato a VCC tramite Rc, l’emettitore è collegato a GND tramite RE, la base è collegata a
VCC tramite R1 e collegata a GND tramite R2.
Con l’analisi che andremo a fare vedremo come l’inserimento di RE stabilizza il punto di riposo e consente
di ottenere un punto di riposo che risulta molto più stabile al variare della temperatura e dei parametri del
BJT, rispetto ai due precedenti schemi.
I due schemi precedenti vengono anch’essi usati ma non sono ottimali. Il circuito migliore per la
polarizzazione dei circuiti discreti a singolo generatore è questo.
Possiamo provare a semplificarci questo circuito facendo l’equivalente di thevenin del circuito visto dalla
base, apro il terminale di base e calcolo il circuito equivalente di thevenin relativo al generatore di tensione
VCC, la RS, R1 e R2. Il circuito sarà composto da un generatore equivalente di thevenin VBB e una resistenza
equivalente di thevenin RB.
VBB sarà pari alla tensione vuoto che misuro sul terminale di GND, ed è pari alla partizione di VCC su R1 e
R2.

La resistenza vista si ottiene invece disattivando VCC e quindi sarà semplicemente data da un parallelo.

Facendo l’equivalente Thevenin mi riporto a un circuito analogo a quello in cui avevamo 2 generatori di
tensioni, anche se VBB è ottenuta da VCC tramite R1 e R2.
Analizziamo il circuito facendo un’ipotesi sullo stato di funzionamento del transistore bipolare, l’ipotesi di
essere in zona attiva diretta. Sostituisco allora al posto del mio transistore il circuito equivalente:

Disegno tutti i componenti esterni al mio BJT, individuo i tre nodi del mio BJT e tra questi inserisco il circuito
equivalente per grandi segnali che posso utilizzare per questa regione di funzionamento.
Fra base ed emettitore inserisco il generatore di tensione costante pari a Vy, tra collettore e emettitore
inserisco il generatore di corrente controllato in corrente di valore pari a Bf * IB e dopodichè collego il resto
del circuito.
Sostituisco quindi il mio dispositivo non lineare con un circuito che mi consente di studiare il circuito
complessivo perchè composto solo da elementi con comportamento lineare.
Le nostre incognite sono, per determinare il punto di lavoro sono:

Stiamo infatti facendo l’ipotesi di conoscere Vy e Bf.


Partiamo dal più semplice, VBEQ, già individuata dal modello che stiamo usando.
Il modello approssimato implementato è tale da dire che trascuriamo la variazione VBE, e la poniamo
costante pari a Vy. VBE è la differenza di potenziale tra base ed emettitore e il suo valore di riposo è pari a
Vy.

Troviamo invece gli altri tre parametri scrivendo le equazioni alle maglie:
1)
Dove abbiamo indicato con IB la corrente che entra nella base, IC la corrente che entra nel collettore e IE
col verso uscente (quindi i versi positivi della corrente).
La caduta ai capi di un generatore di corrente controllato in corrente, fornisce una corrente costante, ma
tensione ai suoi capi, VCE, è variabile:

2)
Mi serve ancora un’equazione. Abbiamo 3 incognite da determinare, IB, IC e VCE.
La terza equazione la posso andare a scrivere tenendo conto del nodo di emettitore, se faccio il bilancio
delle correnti al nodo di emettitore abbiamo:

3)
Risolviamo la prima equazione:

Ho un’equazione in un’incognita e quindi si ricava:

Posso a questo punto andare a trovare la ICQ:

Mi rimane da ricavare la VCEQ:

Quindi:

Ho risolto così il mio circuito e quindi il mio punto di lavoro applicando il mio modello semplificato.
Ora possiamo chiarire perchè questo circuito è migliore degli altri.
IBQ dipende da Vy e da Bf, ICQ dipende da Bf e quindi sembrerebbe che questo circuito non fornisca dei
vantaggi rispetto ai precedenti. Dobbiamo stare attenti però al fatto che il circuito a 4 resistenze fornisce
vantaggi, non sempre, ma solo nel momento in cui resistenze R1 R2 e RE vengono scelte opportunamente.
In tal caso il circuito di polarizzazione è in grado di fornire una corrente di collettore o di emettitore
indipendente dalle caratteristiche del dispositivo.. Noi ragioneremo su quella di emettitore.
Abbiamo ricavato che:

Quindi:

La corrente di emettitore è ben lontana da essere indipendente dalla caratteristica del dispositivo, troviamo
sia Vy che Bf, e se variano, IEQ varia.
Il problema non può essere eliminato del tutto ma può essere attenuato, facendo in modo che IE dipenda
poco dai parametri del dispositivo, cercando di soddisfare due condizioni.

Se valgono queste due condizioni la corrente di emettitore e, quindi, quella di collettore è determinata dai
componenti esterni collegati al transistore.
Se Vy è piccola rispetto a VBB il numeratore varierà poco e lo stesso se al denominatore RE è molto
maggiore di RB/(Bf+1), posso quindi trascurare Vy e il termine a denominatore.
Se posso trascurare quei due termini ottengo che la corrente di emettitore mi viene circa uguale a quel
valore. Quello che posso fare con il circuito di polarizzazione non è eliminare il problema ma posso fare in
modo che vi dipendano in modo limitato, con IE quasi indipendente da questi parametri.
Ricordiamo che la VBB è data dalla partizione della VCC attraverso R1 e R2(VBB = CCC * R2/(R1+R2)).
Quindi nell’espressione finale che si ottiene, la corrente di emettitore di riposo, circa uguale alla IC in zona
attiva diretta, è determinata solo da VCC, R1, R2 e RE.
Se riesco a soddisfare contemporaneamente queste due condizioni riesco ad ottenere un punto di lavoro
stabile. Vediamo se la prima si può ottenere:

Questa condizione assicura che piccole variazioni della VBE siano mascherate dalla VBB che è molto più
grande. VBB è data dalla partizione di VCC con R1 e R2, Vy non è molto grande, è circa dell’ordine di 0.7 V, e
dato VCC riesco a trovare una partizione di VCC tramite di R1 e R2 che mi sodisfa questa condizione in
modo non difficile.
Se la realizzo è vero che la VBE può variare ma di fatto queste variazioni vengono mascherate da VBB.
IE dipende da VBB – Vy e quindi se VBB >> Vy, anche se Vy cambia leggermente non me ne accorgo.

Questa condizione rende insensibile IE dalle variazioni di Bf.


La seconda condizione, se verificata, fa sì che la corrente di emettitore sia indipendente da Bf, dipende solo
da VBB/RE. Se utilizzo 2 transistori, per esempio uno con Bf = 150 e lo sostituisco con un altro che ha Bf =
200, se il punto di riposo dipende poco da Bf, allora il punto di lavoro non cambierà.
Se l’oggetto è dimensionato bene, Bf influisce poco sulle variazioni del punto di lavoro.
Mi serve RB non troppo grande per realizzare questa situazione, RB = R1 || R2, non è detto che sia grande,
ma soprattutto viene divisa per Bf, che può essere dell’ordine di 100,200,ecc.
Quindi ho un valore non troppo grande e la condizione Re >> questo fattore si può ottenere con facilità.
Queste condizioni garantiscono quindi che il punto di lavoro, non che non sia indipendente, ma poco
dipendente dalle caratteristiche del transistore e anche della variazione delle caratteristiche del transistore
con la temperatura.
Se prevediamo:

Abbiamo ciò guardando l’equazione alla maglia di ingresso e ciò significa che vado a trascurare la caduta su
RB rispetto all’altro termine.

Nella maglia di ingresso posso trascurare la caduta su RB rispetto a quella su RE. La condizione è
equivalente a quella di partitore pesante.
La differenza di potenziale tra body e ground, tensione di base VB, è pari a:

Ho la stessa cosa che accadeva col partitore pesante, ecco che la seconda condizione non è altro che quella
del partitore pesante scritta in un altro modo. Lì diciamo semplicemente che se le correnti in R1 e R2 sono
molto più grandi della corrente di base allora la tensione di base sarà circa uguale a VBB, serve scegliere
correttamente R1 e R2 in modo tale che il parallelo sia molto più piccolo, diviso per Bf + 1, di RE.
Se ciò è soddisfatto allora il partitore pesante è un buon modo di polarizzare, soddisfo una delle due
condizioni che mi portano alla indipendenza del punto di lavoro dalle caratteristiche del transistore.
Qualcuno si potrebbe chiedere perché questo circuito funziona meglio. Da un punto di vista analitico se
prendo VBB >> Vy e RE >> RB/(Bf + 1) ottengo che IE e quindi IC è determinata solo da parametri esterni al
circuito e quindi IEQ è uguale a quella quantità.
Quindi se scelgo opportunamente R1, R2 e RE ottengo una buona insensibilità del circuito. Ma cosa ha di
diverso questo circuito tanto da renderlo migliore rispetto a quello a tre resistente che faceva lo stesso il
partitore pesante? La presenza di RE, la resistenza aggiunta all’emettitore, posizionata in comune tra la
maglia di ingresso e la maglia di uscita, ho inserito infatti una resistenza in una posizione particolare.
E’ qualcosa che mette in comunicazione l’ingresso con l’uscita. Viene sfruttato in questo circuito e viene
detta resistenza di reazione, per il concetto di prendere parte del segnale di uscita e andarlo a riportare in
ingresso per confrontarlo con delle grandezze per ottenere un particolare comportamento.
Perchè mi stabilizza la IE? Se applico una modifica della grandezza che voglio stabilizzare, il circuito reagisce
riportandola al valore iniziale. Questo circuito è un circuito in cui RE stabilizza il valore della IE.
Supponiamo che IE aumenta per un qualche motivo (come per esempio l’aumento della temperatura), la
tensione VE tra emettitore e GND aumenterà perché banalmente data da :

VBE è la differenza di potenziale tra base ed emettitore, e se abbiamo soddisfatto le condizioni dette prime,
in particolare quella di partitore pesante, avrò che VB è circa uguale a VBB ma costante perché pari a VCC *
R2 / R1 + R2, anche se aumenta la temperatura non influisce su questi valori.
Ho una differenza tra una tensione costante e una che aumenta, quindi VBE diminuisce.
Infatti all’aumentare di IE, VBE diminuisce:

Ma per quanto riguarda la dipendenza tra IE e IC dalla VBE, è evidente dalle equazioni di Ebers-Moll, che
dipendono in modo esponenziale dalla VBE, se VBE diminuisce, IC e IE diminuiscono.

Ho un sistema in reazione perché se IE aumenta, la Ve è una tensione che è presente anche sulla maglia di
ingresso e questo mi fa diminuire la IE portandola a stabilizzarsi.
Si dice che Re introduce e un effetto di retroazione negativa che stabilizza la corrente di polarizzazione.
Determina il collegamento tra la porta di ingresso e quella di uscita e se IE tende ad aumentare, il circuito
reagisce in modo tale da portarla al valore iniziale e vale anche il viceversa se diminuisce.
Ho quindi un circuito molto più stabile, se R1, R2 e RE vengono scelte opportunatamente.

Ci saranno sicuramente delle cose da considerare per esempio sul molto minore e per esempio anche RC è
stata in realtà finora trascurata anche se influisce su altre specifiche del sistema, vanno quindi fatti dei
compromessi nella scelta ma bisogna guidarli in modo tale da ottenere il risultato migliore.

Transistore MOS – Circuiti equivalenti per ampi segnali amplificati


Il circuito equivalente tornerà utile quando nel circuito ci sono generatori indipendenti costanti o
generatori di segnale con segnali molto grandi rispetto al valore del punto di riposo.

Per il transistore MOS abbiamo delle espressioni analitiche che ci consentono di risolvere il circuito in modo
semplice ma dobbiamo fare come sempre delle ipotesi sul transistore.
Consideriamo un MOSFET a canale N ad arricchimento, avremo una tensione soglia positiva, la corrente di
gate è sempre identicamente nulla, facciamo l’ipotesi che l’ossido di gate che separa l’elettrodo di gate dal
canale sia perfetto e privo di perdite (ci sono però dei modelli più raffinati che tengono conto di
comportamenti ad alta frequenza in cui questo non è poi così vero).
Abbiamo poi la condizione necessaria che deve essere verificata per avere la presenza del canale, ovvero
VGS >= VT, fondamentale per la presenza del canale.
Nella regione triodo abbiamo:

Se faccio l’ipotesi di essere in zona triodo allora sostituisco il comportamento del mio transistore
descrivendolo con questa equazione.
Nel caso di saturazione abbiamo:

Sia nella zona triodo che nella zona di saturazione il circuito equivalente consiste in questo circuito, che
prevede che il gate sia isolato, l’impedenza tra il gate e il drain e il gate ed il source è infinita.
Tra il drain e il source abbiamo poi un generatore di corrente controllato in tensione.
Noi lavoreremo quasi sempre in saturazione e quindi potremo usare questo modello.
Inoltre Is = Id, legato al fatto che la corrente di gate è identicamente nulla.
Si fa l’ipotesi che la corrente is che scorre è quella che scorre nel canale tra drain e source.
Nei modelli che usiamo trascuriamo la modulazione di canale, poniamo quindi lambda = 0, altrimenti avrei
dovuto avere una resistenza in parallelo.
Per il canale P dobbiamo fare la trattazione del tutto analoga stando attenti ai segni delle correnti e delle
tensioni:

In questo caso VT < 0, ho un MOSFET a canale P ad arricchimento, devo formare il canale delle lacune, devo
applicare una tensione negativa del gate rispetto al canale, quindi ho una tensione di soglia negativa.
La corrente di gate è nulla anche qui per lo stesso motivo, e stavolta l’espressione che crea il canale è quella
indicata, condizione che deve essere soddisfatta per avere il canale.
Anche in questo caso abbiamo le due regioni di funzionamenti, se faccio l’ipotesi di essere in zona triodo:

Ricordiamo che qui le tensioni avranno il loro segno quindi VGS sarà negativa, VT sarà negativa e VDS sarà a
sua volta negativa perché attira verso di sé le lacune, la corrente scorre da source verso drain, verso della
corrente positiva. Le cariche che si spostano da source verso drain sono lacune e quindi questo è il verso
della corrente.
Nel caso N la corrente va da drain a source perché si spostano elettroni mentre qui si spostano le lacune.
In zona di saturazione il tutto è analogo a prima, il gate è sempre isolato con la diversità che ho un
generatore di corrente ideale controllato in tensione, VGS e VT sono entrambe minori di 0, ma il tutto sarà
positivo e quindi avrò una corrente positiva e il verso del generatore è diretto dal source verso il drain,
verso opposto rispetto a quello precedente. Cambia il verso del generatore perché nel canale P sono
invertiti i segni delle correnti e delle tensioni.

Nel MOSFET dovrò fare le mie ipotesi di lavoro, ipotizzo per esempio di essere in saturazione e sostituisco il
mosfet con il circuito equivalente, risolvo il circuito e devo poi fare le verifiche finali.

Per NMOS se ho fatto l’ipotesi di essere in saturazione le verifiche sono due, anche se la prima è comune a
entrambe le zone (lo stesso vale per tutti gli altri). Dovrò verificare che VGS >= VT perché ho ipotizzato che
il mio MOSFET conducesse, si parla di verifica di conduzione, e l’altra ipotesi mi dice che effettivamente
sono in saturazione VDS >= VGS – VT, si parla di verifica di saturazione. Per VDS >= VGS – VT sono nella
situazione in cui il canale è in corrispondenza del drain, se supero questo valore di tensione il punto di
strozzatura arretra lungo il canale. In zona triodo, la prima verifica che va fatto riguarda il fatto di avere la
conduzione attraverso il nostro MOSFET, e poi abbiamo la verificata della zona triodo, la seconda. Entrambe
devono essere verificate perchè altrimenti ho sbagliato a risolvere il circuito oppure ho sbagliato ipotesi,
per esempio se la seconda non è verificata magari sono nell’altra zona.

Nel PMOS le espressioni sono uguali ma i versi delle disuguaglianze invertiti, vengono prese le tensioni con
il loro segno (VGS, VT, VDS negative). Per ricordarsi i segni corretti basta ricordarsi che uno funziona nel
primo quadrante e uno nel terzo quadrante.

Utilizzeremo quasi sempre quello in saturazione in ambito analogico trascurando l’effetto della
modulazione di canale dove il controllo della tensione è di tipo quadratico dalla tensione di overdrive.
Polarizzazione MOSFET
Vediamo come polarizzare il MOSFET in modo che sia in saturazione, nel punto in cui le caratteristiche sono
piatte, e come scegliere un punto di lavoro opportuno così da avere la polarizzazione tale da mantenere il
punto di lavoro in modo indipendente delle caratteristiche del mio dispositivo. Si parla anche qui di
polarizzazione di componenti discreti con un singolo generatore.
La polarizzazione dei transistori a effetto di campo si ottiene con reti molto semplici, grazie al fatto che
l’assorbimento di corrente da parte del gate è trascurabile.

Polarizzazione a VGS fissa

Considerando una configurazione a source comune per il transistore MOSFET, trattazione analoga a quella
che abbiamo visto dove il ruolo dell’emettitore è preso dal source, abbiamo che la porta di ingresso è tra il
gate e il source, VGS, mentre la porta di uscita è compresa tra drain e source e abbiamo la tensione VDS.
Ho la corrente ID che scorre da drain verso source, mentre la corrente di ingresso è IG la prendiamo pari a
0, il che semplifica la trattazione del circuito, differenza rispetto al transistore bipolare.
Il nostro MOSFET non assorbe nessuna corrente dal terminale di gate.
Quanto vale la tensione fra gate e source? Il terminale di source è mantenuto a 0 quindi VGS non è altro
che la tensione ai capi di R2, che è data dalla partizione della tensione VCC tra la resistenza R1 e R2,
partizione che possiamo scrivere con l’uguale e non il quasi uguale perché la corrente di gate è proprio
nulla.

In un transistore bipolare abbiamo fatto l’ipotesi di partitore pesante per poter trascurare la corrente di
base, qui non ho da fare ipotesi aggiuntive e infatti ciò vale se iG = 0.
La VGS dipende esclusivamente dalla tensione VCC che ho applicato e dal partitore tra R1 e R2 e ciò
consente di polarizzare correttamente il MOSFET ma non è immune alle variabilità delle caratteristiche tra
un componente e un altro anche se sono nominalmente uguali.
Se prendiamo la trans-caratteristica e vediamo come varia la iD in funzione della VGS, e facendo l’ipotesi di
essere in saturazione abbiamo:
Troviamo delle curve di questo tipo:

I dispositivi hanno delle tensioni di soglia diverse tra di loro. Ho due MOSFET nominalmente uguali che
hanno due diverse trans-caratteristiche, se faccio una polarizzazione di questo tipo con VGS costante
ottengo in corrispondenza due valori di corrente che scorrono diverse.
Quindi avrei due punti di lavoro diversi l’uno dall’altro.
La polarizzazione VGS è costante, vediamo cosa accade se invece di usare questo circuito lo complico
aggiungendo sul source una resistenza Rs. Siamo ancora in una configurazione a source comune, ho una
resistenza a comune tra la maglia di ingresso e quella di uscita. Ritrovo la polarizzazione a 4 resistenze e
vediamo se anche in questo caso la soluzione ci consente di andare a diminuire la dipendenza del punto di
lavoro dalle caratteristiche specifiche di quel particolare MOSFET.
Risolviamo il circuito facendo l’ipotesi di essere in saturazione e sostituiamo il MOSFET con il suo circuito
equivalente oppure possiamo dire che utilizzo quella espressione equivalente di ID, o meglio di IDS.

La tensione sul gate è data dal partitore ma questa volta la tensione sul gate non coincide con la VGS,
dovuto al fatto che ho la Rs. Devo determinare le seguenti incognite : VGSQ, VDSQ e IDSQ.
La quarta grandezza sarebbe IGQ ma è identicamente nulla e questa ha come conseguenza che ID = Is.
Posso usare le equazioni circuitali e l’espressione che mi regola il comportamento del mio transistore in
zona di saturazione, posso scrivere l’espressione della VG, l’espressione della corrente e l’espressione alla
maglia, come indicate sopra.
Avremo che ID = IS e quindi posso scrivere quella espressione.
Se uso il modello semplificato con lambda = 0, unendo le due espressioni avremo:

Ho l’espressione solo in VGS che avrà due soluzioni possibili essendo una equazione di secondo grado, VGS1
e VGS2. Risolvo l’equazione di secondo grado e una volta ottenute le soluzioni faccio le mie verifiche.
Tra le due soluzioni, una non soddisferà la relazione VGS >= VT, abbiamo infatti un circuito con componenti
non lineari ma con caratteristiche monotone e si può provare che abbiamo un’unica soluzione.
Delle due soluzioni soltanto una soddisfa le ipotesi. Se le soddisfano entrambe c’è qualcosa che non va.
Dalle due soluzioni derivo la VGSQ in base a questo. Una volta ottenuta vado a sostituirla nell’equazione
della corrente e da questa ricavo la IDSQ.
Rimane da calcolare la VDSQ. Basta scrivere l’equazione della maglia di uscita:

E se sostituisco a ID il valore di IDQ da questa espressione ricavo VDSQ.


Devo poi andare a verificare che tutto sia soddisfatto, verifica finale che prevede:

dove la verifica VGSQ >= VT l’abbiamo già usata per scegliere una delle due soluzioni.
Ci possiamo quindi trovare nella situazione di dover andare a risolvere un’equazione di secondo grado.
Vediamo ora perché RS può dare dei vantaggi.
Se prendiamo la trans-caratteristica, se vado a riportare la retta VG = VGS + RS*ID ho una sorta di retta di
carico, con le corrispondenti intersezioni con i due assi.
Vediamo che i due punti di lavoro è vero che li abbiamo ancora distinti, non riesco ad annullare
completamente il problema della dipendenza dalle caratteristiche, ottengo ancora i due punti di lavoro ma
la differenza tra i due valori di ID è molto più piccola rispetto ai due casi precedenti.
Posso verificare quindi che aver inserito al resistenza di Source mi porta ad una minore dipendenza del
punto di lavoro dalle caratteristiche del dispositivo.
L’intersezione tra tale retta e la transcaratteristica individuerà il punto di riposo cercato.
Lo stesso effetto si può vedere anche in termini di reazione, Rs fornisce una reazione negativa.
Noi vogliamo un MOSFET che prevede una Id costante anche se sostituisco il MOSFET:

VGS si può scrivere come somma tra la differenza di potenziale tra il terminale di gate e quello di
riferimento e quello di source e quello di riferimento. VG è costante ed è la partizione di VCC tra R2 e R1 e
Vs è dipendente da Id, se Id aumenta la differenza mi farà diminuire VGS.
Ma se la VGS diventa più piccola, abbiamo una dipendenza di tipo quadratico e la Id diminuisce, ho una
reazione negativa. A un aumento della grandezza che voglio controllare, il circuito mi dà una variazione in
senso opposto, meccanismo che viene messo in atto dalla presenza di Rs, che mette in comunicazione
l’ingresso e l’uscita.
Possiamo concludere che Rs introduce un effetto di retroazione negativa che stabilizza la corrente di
polarizzazione. La resistenza Rs prende il nome di resistenza di degenerazione. Questo circuito riduce il più
possibile la dipendenza dal punto di lavoro, quindi della corrente di drain dalle caratteristiche del
dispositivo stesso.

Abbiamo quindi visto i modelli per grandi segnali del transistore bipolare e del transistore MOSFET,
sappiamo risolvere il circuito nelle condizioni di grandi segnali, dove rientrano tra queste ipotesi anche
quelle in cui abbiamo generatori indipendenti di valore costante.

Transistore BJT - Modello linearizzato per piccoli segnali


Vediamo come trattare il circuito quando abbiamo dei generatori di piccolo segnale.
Come nel caso già visto per il diodo, è possibile sviluppare un modello linearizzato anche per i componenti
attivi e, in particolare, anche per i transistori BJT. Questo modello è valido soltanto per piccoli spostamenti
intorno al punto di lavoro, tali da poter approssimare il comportamento del transistore considerando i soli
termini del primo ordine dello sviluppo in serie.
Ci troviamo nella necessità di trattare un quadripolo, il transistore è un caso specifico di quadripolo in cui
un terminale è a comune tra porta di ingresso e di uscita e vogliamo andare a determinare un modello
lineare, il comportamento BJT è fortemente non lineare ma si può dimostrare come abbiamo fatto nel
diodo che se applichiamo piccole variazioni di segnale nell’intorno del punto di riposo posso andare a
linearizzare il dispositivo. Nel diodo avevamo due terminali e quindi il modello era molto semplice ma qui
ho due porte di ingresso e uscita.
Il transistore è un quadripolo, quindi il suo modello linearizzato dovrà essere rappresentabile con un
quadripolo lineare. Il comportamento elettrico di un quadripolo lineare può essere completamente definito
tramite le relazioni tra quattro grandezze: i1, v1, i2, v2, le quali sono scelte con i versi illustrati nella figura
Quanti parametri servono per descrivere il comportamento di quadripolo lineare?
Ho una tensione e una corrente di ingresso e una tensione e una corrente di uscita.
Il quadripolo ha un comportamento non lineare descritto da una funzione che lega le caratteristiche di
ingresso a una grandezza di uscita e lo stesso per le caratteristiche di uscita.
Voglio linearizzare il comportamento, trovando espressioni lineari che mi legano le 4 grandezze.
Posso fare varie scelte, se sono in presenza di un quadripolo lineare posso esprimere due grandezze in
funzione delle altre due. Scegliamo di esprimere v1 e i2 in funzione di i1 e v2 (questa è la scelta di solito
fatta per la rappresentazione linearizzata dei transistori).

La dipendenza della v1 dalla i1 e dalla v2 è data da questi parametri e lo stesso per quanto riguarda la i2 in
funzione di i1 e v2.
I parametri h sono detti ibridi perché non hanno tutti le stesse dimensioni, alcune impedenze, alcune
ammettenze e altri numeri puri.
E’ come se prendessi il mio quadripolo e prendere un generatore di corrente indipendente i1 e un
generatore di tensione v2.

E vado a determinare gli altri parametri:


Vado a misurare v1 in queste condizioni e vado a valutare h11 detta anche hi dove i sta per input e le sue
dimensioni sono quelle di una impedenza nelle condizioni di cortocircuito (si riferisce alla porta di uscita),
l’impedenza è misurata alla porta di ingresso quando la porta di uscita è in cortocircuito.
La h12 ha invece una dipendenza dalla v1 e dalla v2 quando i1 = 0.
Vado a misurare il valore di v1 quando agisce solo v2:

E si parla di parametro reverse perché ho l’effetto della grandezza di uscita su una grandezza di ingresso,
direzione opposta da quella considerata forward.
E’ un rapporto tra tensioni quindi è un guadagno di tensione inverso valutato a circuito aperto.

h21 è invece il rapporto tra corrente di uscita e di ingresso quando l’uscita è in cortocircuito.
La f sta per forward, perché è il rapporto tra una grandezza di ingresso e una grandezza di uscita.
Si dice in cortocircuito perché lo è l’uscita.
h22 è invece il rapporto tra la corrente di uscita e la tensione di uscita valutate per i1 = 0.

Ho un rapporto tra una corrente e una tensione quindi ho un’ammettenza ed è di uscita quindi ho o che sta
per output ed è valutata a circuito aperto.

Li utilizzeremo per descrivere il comportamento linearizzato del BJT dove queste saranno le variazioni
all’interno del punto di lavoro.
Il comportamento del BJT nell’intorno del punto di lavoro può essere schematizzato tramite il modello a
parametri h dove questi parametri i1,v1,i2,v2 saranno le variazioni delle tensioni e delle correnti
nell’intorno del punto di riposo.

Si va ad aggiungere a questi parametri un altro pedice che tiene conto della configurazione del nostro
transistore. Se usiamo una configurazione a emettitore comune avremo il pedice ‘e’.
Nella figura circuitale sono disegnate le grandezze complessive ma qui avremo le nostre variazioni.
Quindi considerando per esempio una sola grandezza avremo:

e ciò valrà anche analogamente per tutte le altre.


Se uso una configurazione a collettore comune avrò pedice ‘c’ mentre se uso una configurazione a base
comune avrò pedice ‘b’.
Nel sistema abbiamo le variazioni attorno al punto di riposo come si evince dalle lettere minuscole.
Come determino questi parametri? Per farlo devo fare una trattazione analoga a quella fatta col diodo.
Prendo il dispositivo polarizzato con generatori costanti e nella configurazione a emettitore comune vado a
introdurre un generatore di segnale che varia nel tempo ipotizzando variazioni piccole nell’intorno del
punto di riposo.
Considerando sempre la configurazione a emettitore comune abbiamo:

Ho 4 grandezze che posso esprimere come somma di una quantità costante data dal punto di riposo, che
determino quando vs(t) = 0, più un termine variabile nel tempo.

Tutte le grandezze le potrò andare a scrivere in questo modo, tramite la somma di un termine costante e
un temine variabile nel tempo.
Ho anche le caratteristiche del mio dispositivo, con iB e VCE scelte come grandezze indipendenti:

Come determino da queste condizioni i parametri h? Parto da:

Vado a fare ancora una volta lo sviluppo in serie di taylor, ho due espressioni più complicate dovuto al fatto
che ho funzioni in più variabili e quindi avrò la presenza di derivate parziali:

La funzione f è funzione della Ib complessiva e della Vce complessiva, quindi quando si fa la derivata
parziale avremo questo risultato. Quando faccio lo sviluppo in serie ho due variazioni di due parametri.
Lo stesso vale per la funzione g.
A questo punto applico l’ipotesi di piccolo segnale e i termini di ordine superiore possono essere trascurati.
Trascuro i termini di ordine superiore e avendo risolto il punto di lavoro posso anche semplificare i termini
a destra e a sinistra che coincidono:

La ICQ = g(IBQ, VCEQ) e quindi in modo analogo a ciò che avevamo ottenuto per il diodo otteniamo che le
variazioni:
E se sono sotto l’ipotesi di piccolo segnale vale questa approssimazione.
Ma se la confrontiamo con il modello a parametri h da cui siamo partiti avremo:

Quindi ottengo:

dove per ogni termine considero che la funzione coincide con la VBE o la Ic rispettivamente.
Notiamo come dobbiamo stare attenti a distinguere la hfe dalla hFE, distinguendo il parametro per piccoli
segnali con la Bf.
Trovo l’espressione dei parametri, che sono differenziali e valgono quindi nell’intorno del punto di riposo,
che mi permettono di effettuare una linearizzazione.
Possiamo rappresentare il quadripolo lineare con un circuito equivalente:

La porta di ingresso sarà data da hie * ib e quindi hie è una resistenza su cui scorre ib e in serie a questa
resistenza c’è un generatore di tensione controllato in tensione.
Se scriviamo l’equazione alla maglia di ingresso troviamo la prima equazione.
Abbiamo hfe * ib quindi un generatore di corrente controllato in corrente, e poi abbiamo un’ammettenza in
parallelo. La ic complessiva sarà data da una corrente che scorre nel generatore di corrente e un termine
dato da vce * hoe.

Determinazione dei valori dei parametri


Vediamo ora come si determinano i parametri ibridi a emettitore comune a partire dalle caratteristiche del
transistore, facendo riferimento, per semplicità, al caso di un transistore NPN.
Consideriamo dapprima una procedura esclusivamente basata sulle caratteristiche grafiche, caratteristiche
di ingresso e di uscita. Cosa che però non abbiamo sempre a disposizione.
Partiamo da hie.
Considerando la caratteristica di ingresso del dispositivo, determiniamo il punto di riposo.
L’inverso di hie non è altro che la derivata della ib rispetto alla vbe calcolata nel punto di riposo.
Considerando allora la caratteristica per VCE = VCEQ, se prendo la retta tangente al punto di riposo e ne
calcolo la pendenza il reciproco mi darà hie. hie è quindi ottenibile in modo analogo a quanto accadeva nel
diodo.

Considerando ancora una volta le caratteristiche di ingresso, possiamo determinare la hre, la variazione
della vbe determinata da una variazione della vce.
La derivata parziale può essere scritta come limite del rapporto incrementale, valutato nel punto di riposo.

Dalla definizione, hre può essere approssimato con il rapporto tra la variazione della VBE e quella della VCE,
per IB costante e pari al valore di riposo.
Questa ripercussione delle variazioni della VCE sulla VBE è possibile per via dell’effetto Early.
Graficamente devo disporre delle caratteristiche di ingresso al variare della VCE, se ho la caratteristiche di
riferimento con VCE = VCEQ posso applicare un delta VCE, applicandolo in modo simmetrico intorno al
punto di riposo.
Distribuisco quindi la variazione attorno a VCE:

Vado ora a valutare il mio parametro nell’intorno del punto di riposo.-


Quando valuto la deltaVCE devo considerare le variazioni della IB nulle, quindi devo valutare per IB = IBQ.
Vado quindi a tracciare la retta corrispondente a IBQ e determino le intersezioni con le nostre due nuove
caratteristiche e determino così il valore di deltaVBE. Attorno alla VBEQ avrò anche qui una simmetria.
Se misuro il rapporto tra le due variazioni ottengo il valore di hre.

E’ evidente che il valore di hre è collegato all’effetto Early e abbiamo visto che questo effetto sulle
caratteristiche di ingresso è piccolo e quindi hre sarà piccolo, molte volte saremo autorizzati a prenderlo
circa uguale a 0.

Gli altri due parametri sono calcolabili sulle caratteristiche di uscita.

Anche per la hfe posso calcolare il rapporto incrementale valutato per VCE = VCEQ.
Vado sulle caratteristiche di uscita, ho la mia caratteristica di riferimento per IB = IBQ e applico una
variazione della IB in modo simmetrico come abbiamo fatto prima.
Applicando una variazione della corrente di base pari a delta IB e determino altre due caratteristiche,
traccio la retta verticale con VCE = VCEQ e vado a determinare i due punti di intersezione della VCE costante
con le due caratteristiche, ottenendo una variazione della corrente IC e potendo valutare quindi deltaIC.
Posso calcolare quindi hfe:

Quando determino variazione della corrente di base ottengo come varia la corrente di collettore
corrispondente, variazione data da hfe, guadagno dinamico del mio amplificatore.

Per quanto riguarda hoe:


Posso vedere ancora una volta hoe come rapporto incrementale valutato per IB = IBQ.
Prendo le caratteristiche di uscita a prendo solo la caratteristica a IB costante, IBQ, applico la delta VCE
ancora una volta in modo simmetrico, individuo i nuovi due punti relativi alle variazioni e vado a vedere la
loro intersezione con la caratteristica di riferimento.
Queste due intersezioni mi determinano una variazione della corrente Ic.
Ho queste deltaIC perché le caratteristiche non sono piatte, hoe tiene conto dell’effetto early, perché se
queste fossero caratteristiche piatte e avessi polarizzato in zona attiva diretta, non otterrei nessuna
variazione nella IC.
hoe è quel parametro che tiene conto del fatto dell’effetto early sulle caratteristiche di uscita.
Se applico una variazione alla VCE ho una piccola variazione sulla IC.

Abbiamo così determinato i parametri utilizzando la caratteristica di ingresso per hie e hre e la caratteristica
di uscita per hfe e hoe, con hre e hoe che tengono conto dell’effetto Early.
La procedura grafica per determinare questi valori è complessa nell’applicazione pratica, devo disporre
delle caratteristiche del dispositivo che prendo in considerazione e calcolare la variazione col righello,
inoltre quanto grande prendo la variazione da applicare? La determinazione grafica dei parametri del
modello non viene di fatto mai fatta.

Per determinare i parametri posso afre un certo numero di approssimazioni.


Partiamo da hre, conseguenza dell’effetto Early sulle caratteristiche di ingresso. Questo effetto è molto
piccolo solitamente nelle caratteristiche di ingresso che variano molto poco al variare della vCE e quindi
molto spesso si considera:

Applicheremo sempre questa ipotesi di lavoro.


In alcuni casi nella realtà viene fornito un valore da parte del costruttore sul data sheet che può essere
utilizzato. L’utilizzo di questo parametro comporta anche una complicazione sulla risoluzione del circuito,
una variazione sulla tensione di uscita fornisce una variazione sulla tensione di ingresso.
Per quanto riguarda hoe facciamo prima una considerazione. Il parametro Va, la tensione early, viene
fornita tipicamente sul data sheet, e noto il suo valore posso determinare il valore di hoe, che non è altro
che la pendenza della curva valutata nel punto di riposo (supponendo in questa figura che VBEQ = VBE5),
pendenza che può essere calcolata prolungando la caratteristica e intersecando l’asse delle ascisse in Va.
Otteniamo quindi nient’altro che il coefficiente angolare della retta e quindi l’angolo di questo triangolo
rettangolo.

hoe può quindi essere calcolato come il rapporto tra il cateto orizzontale e il cateto verticale.
Se il costruttore mi ha fornito il valore della tensione di Early e ho determinato il mio punto di riposo, posso
allora determinare hoe.
In particolare per quanto riguarda il reciproco di hoe, quindi il valore della resistenza, considerando che la
VA è tipicamente molto maggiore della VCEQ (VA presa in modulo), diventa molto elevato, dell’ordine di
qualche kOhm:

Se questa resistenza risulta essere più grande di altre resistenze presenti nel circuito in parallelo a questa,
molte volte posso trascurarla, considerando 1/hoe infinta e quindi hoe = 0.
A seconda dei casi posso decidere di trascurare il valore della resistenza e semplificare il circuito
equivalente, ma mentre la condizione hre = 0 è facile che sia soddisfatta, in questo caso devo dare prima
un’occhiata al circuito. Per i transistori BJT tipicamente questa semplificazione viene applicata.
Per la hfe posso fare l’ipotesi di aver polarizzato il transistore in zona attiva diretta, e ciò mio comporta che
posso esprimere un legame semplice tra la corrente di collettore e la corrente di base:

Posso quindi cercare di ricavarmi direttamente la hfe piccolo.


Un errore tipico è considerare Bf a priori costante e quindi ottenere:

Non posso semplicemente dire che il mio guadagno per piccoli segnali del mio transistore coincide con il
guadagno statico del transistore.
Questa espressione è errata, è corretta solo se Bf è costante. In realtà non è così, se esprimiamo
l’andamento di Bf in funzione della corrente di collettore otteniamo un andamento di questo tipo:

mi accorgo che la curva non è costante, Bf è funzione della IC, che è una funzione della IB e quindi:

Quindi quando vado a fare la derivata devo calcolare la derivata di un prodotto di funzioni:

A avendo a disposizione il grafico della Bf rispetto a Ic, e conoscendo quindi la derivata di Bf rispetto a Ic
posso esprimerla come indicato nella seconda uguaglianza.
Quindi non è solo pari a Bf ma abbiamo un termine aggiuntivo, e avendo due termini uguali a destra e a
sinistra, semplificando otteniamo:
Posso quindi concludere che:

Supponiamo di conoscere quel grafico e aver determinato il valore di Bf nel punto di riposo, BfQ, e conosco
quindi la ICQ, devo calcolare allora la pendenza della curva nell’intorno del punto di riposo.
Sembrerebbe di dover applicare un metodo grafico anche in questo caso, ma in realtà se siamo fortunati e
ci troviamo in una zona della caratteristica in cui la pendenza è piuttosto piccola, si può dire che;

In alcune condizioni di lavoro si può quindi approssimare dicendo che:

E’ una condizione in cui mi metto a lavorare ma non sempre dispongo del grafico e quindi non ho altre
possibilità che andare a valutare sul data sheet se è riportato un valore di hfe per un particolare punto di
riposo e usare quel valore per qualunque punto di riposo oppure se riportato Bf per un qualunque punto di
riposo e fare l’ipotesi che hfe è circa uguale a Bf.
Questa ipotesi di lavoro è verificata solo nel caso in qui Bf è costante, ma nella maggiorparte non è
verificata, in alcuni casi dobbiamo farla ma è importante ricordare che questa è un’approssimazione.
Ma se avessi a disposizione il grafico potrei andare a determinare la derivata della Bf rispetto a Ic.

La hie invece, è una resistenza differenziale di ingresso e molte volte espressa come somma di due termini
in molti data sheet, somma di due resistenze.
Per capire perché ciò accade riprendiamo lo schema fisico reale del nostro transistore bipolare.
Abbiamo preso come modello equivalente nelle equazioni di Ebers-Moll quello di tre strati di
semiconduttori, cosa che nella realtà troviamo solo sotto la zona sotto l’emettitore.
Però i nostri terminali che indichiamo come direttamente collegati alla base e al collettore nello schema,
nella realizzazione reale non sono collegati direttamente ai nostri terminali, tra la posizione del collettore e
la zona di substrato di tipo n vi è una certa distanza, lo stesso per la base.
Posso quindi individuare un collegamento B’ e nello schema di Ebers-Moll il terminale indicato non è altro
che il terminale fittizio B’ che abbiamo indicato in figura.
Tra il terminale di base esterno e quello interno c’è un certo percorso e avrò una certa resistenza dovuta al
semiconduttore p, che ha una certa resistività. Per questo motivo la hie viene scritta come somme di due
termini:

La rbb’ non è altro che la resistenza fornita dal semiconduttore della base, che esiste tra il terminale
esterno della base e la zona della base interna in cui abbiamo l’iniezione di portatori da parte
dell’emettitore.

E’ una resistenza costante, data dal passaggio della mia corrente di base attraverso un semiconduttore di
una certa resistività, non può variare al variare della VBE, dipende dalla distanza del terminale esterno della
base e la zona della base.
Il termine che invece varia e tiene conto della variazione della Ib rispetto alle variazioni della Vbe è rb’e.
E’ la resistenza differenziale che avevo nel diodo e mi dipende dal punto di lavoro.
Sostanzialmente se vado a riprendere le caratteristiche di ingresso, se le esprimo correttamente, quelle
sono in realtà caratteristiche della Ib in funzione della VB’E e non della VBE perché il modello di Ebers-Moll
che mi da le caratteristiche di ingresso sono relative alla considerazione di un contatto direttamente
collegato alla zona in cui transitano i portatori.

Quindi se vado a prendere le equazioni di Ebers-Moll e le vado a semplificare in zona attiva diretta, queste
dono in funzione della VB’E, e nel secondo circa uguale posso prendere alphaF circa uguale a 1.

Essendo in zona attiva diretta posso quindi considerare, sostituendo a Ic il valore ottenuto:
Il modello di Ebers-Moll è quindi riferito al terminale B’E e non a Be.
Avendo questa espressione della IB in funzione della VB’E posso calcolare la derivata della IB rispetto a
VB’E, ottenendo quindi il reciproco di rbe, che è la parte variabile.

Devo anche ricordarmi nel calcolo della derivata che Bf non è costante ma dipende da IB che dipende da
VB’E:

Posso quindi elaborare ulteriormente la cosa e scrivere:

Per poi scrivere che la derivata della ic rispetto alla VB’E mi dà un altro ic/VT, e mettendo in evidenza:

Notiamo che il termine tra parentesi è lo stesso termine che abbiamo a denominatore di hfe.

Quindi quel termine non è altro che pari a:

E quindi:

La trattazione fatta è valida in zona attiva diretta e ci dice che la rb’e la posso determinare a prescindere
dalla conoscenza delle caratteristiche del dispositivo, una volta determinato quanto vale hfe e il punto di
riposo, ho noto anche questo valore.
La resistenza rbb’ è una quantità che dipende da come è stato realizzato il dispositivo invece, o ce la
fornisce il costruttore o non siamo in grado di determinarla.
Sappiamo anche che se non lo fornisce, comunque rbb’ << rb’e, mentre rb’e è dell’ordine del Kohm rbb’ è
dell’ordine dell’ohm.
Se questa grandezza mi viene fornita dal costruttore, tipicamente ciò significa che ha fatto le misure per un
particolare punto di riposo.
Se il costruttore fornisce i parametri per un particolare punto di riposo si può determinare il valore di rbb’
considerando che tale resistenza è indipendenza dal punto di riposo.
Supponiamo che il costruttore mi fornisce hie*, valore determinato per un particolare punto di riposo.

Se conosco questo valore, nel punto di lavoro fornito posso calcolare rb’e*, quantità data da

e da questa espressione posso ricavarmi rbb’*:

Ma dall’analisi fatta rbb’ non dipende dal punto di riposo e quindi rbb’* = rbb’ che è costante, quindi dai
dati del costruttore, se mi fornisce il valore dell’hie per un particolare punto di riposo sono in grado di
calcolarmi la rbb’ e quindi ho terminato.

rb’e dipende dal punto di lavoro ed p diversa da rb’e*

Ottenuti i parametri possiamo quindi ottenere il modello linearizzato per piccoli segnali semplificato,
trascurando la presenza dell’hre e dell’hoe, quindi non ho la resistenza in parallelo al generatore e non ho il
generatore di tensione controllato in tensione.
Ho quindi una resistenza in ingresso pari a hie o divisa in due contributi e posso alcune volte trascurare rbb’
rispetto a rb’e, che dipende dalla hfe che è circa uguale a Bf sotto opportune ipotesi in cui mi trovo a
operare. In uscita ho quindi solo il generatore di corrente controllato in corrente.

Abbiamo visto come il BJT è molte volte assimilabile a un generatore di corrente controllato in corrente se
lavora in zona attiva diretta. In realtà se scriviamo le equazioni di Ebers-Moll poso esprimere la dipendenza
della Ic in funzione della Vb’e e molto spesso per il BJT si adopera un altro circuito equivalente.

In ingresso non cambia nulla, ma viene indicata la tensione ai capi della rb’e. In uscita il generatore di
corrente sul terminale di uscita è un generatore di corrente controllato in tensione, questo perché il BJT
può essere visto come un generatore di corrente controllato in corrente se la quantità di controllo è la iB o
come un generatore di corrente controllato in tensione se la quantità di controllo è la vb’e.
La gm è una conduttanza e lega la corrente di uscita alla tensione di ingresso.

I due circuiti devono essere equivalente e quindi devono rispettare l’equivalenza:

considerando che vb’e è pari alla caduta della ib sulla rb’e. Quindi otteniamo esprimendo la rb’e:

E semplificando:

Questo schema viene molto spesso utilizzato perché ottengo un circuito confrontabile in modo diretto con
un transistore MOSFET, gm inoltre non dipende da nessun parametro differenziale e quindi facile da
determinare, posso quindi determinare la sua dipendenza diretta dalla corrente di collettore.

Per il transistore PNP non abbiamo la necessità di dover rifare tutto, in quanto il modello per piccoli segnali
dell’NPN è esattamente uguale al modello per piccoli segnali del PNP. Il modello è esattamente uguale nei
due casi, mentre per il punto di riposo dobbiamo stare attenti che abbiamo tensioni e correnti di verso
opposto, per quanto riguarda i parametri differenziali non devo tener conto di questa differenza ma i due
modelli sono perfettamente equivalenti e i 4 parametri sono tuti positivo e il circuito equivalente è lo
stesso.
I parametri differenziali sono infatti delle pendenze delle rete tangenti o inclinazioni delle caratteristiche e
se prendiamo le caratteristiche la differenza è che una si trova nel primo quadrante e l’altra nel terzo
quadrante, ma le pendenze sono positive in entrambi i casi e valutando i rapporti incrementali i delta sono
entrambi positivo nell’intorno del punto di lavoro, anche se il punto di lavoro in un caso è positivo e in un
altro negativo, ho il rapporto tra due quantità dello stesso segno, i parametri differenziali sono quindi tutti
positivi e tutti con lo stesso segno. Il circuito equivalente è lo stesso.

La cosa può essere dimostrata anche circuitalmente. Se prendo infatti il NPN ho la corrente Ib positiva
entrante a cui applico una corrente costante con sovrapposta una piccola variazione funzione del tempo e
quindi la corrente complessiva sarà data dalla somma delle due quantità.
Applico una variazione di una corrente entrante nel dispositivo e la corrente complessiva, come vediamo
circuitalmente, aumenta. Ma se aumenta la IB essendo in zona attiva diretta deve aumentare anche la IC
complessiva, quindi alla mia ICQ gli si va a sommare una quantità variabile ic nello stesso verso, la iC quindi
sarà uguale alla parte del guadagno statico più la parte del guadagno variabile, con Bf e hfe nominalmente
diversi e poi in alcuni casi considerabili come uguali.

Nel PNP i versi delle correnti positivi sono corrente ib uscente e corrente ic uscente.

Se applico una variazione ib nello stesso verso di prima, considerandola quindi entrante, la iB diminuisce
quindi sarà data da IBQ - ib.

La corrente di base diminuisce e quindi la iC complessiva diminuisce, c’è un Bf che le lega tra di loro, e
quindi la iC complessiva sarà data dalla ICQ meno una certa variazione, una corrente entrante, esprimibile
come segue:

Nell’NPN una corrente variabile in ingresso che determina una corrente variabile in ingresso anche per
quanto riguarda la Ic.
Nel PNP una ib entrante mi ha determinato una ic entrante, è vero che il segno è diverso ma se mi limito a
valutare il legame tra ib e ic ottengo lo stesso comportamento.
Se applico una corrente ib variabile entrante ottengo corrispondentemente una corrente ic variabile in
ingresso. L’effetto delle variazioni è esattamente lo stesso nei due casi, altra giustificazione che i due circuiti
equivalenti per le variazioni sono uguali, non lo sono invece quelli del punto di riposo.
Possiamo quindi riassumere dicendo che per ampi segnali l’NPN e il PNP hanno un modello diverso.
Dopo aver determinato il punto di lavoro e quindi il valore di ICQ, VCEQ, IBQ e VBE sono in grado di
determinare i parametri h e dopodichè il circuito per piccoli segnali è unico dove ho una resistenza tra base
ed emettitore e un generatore di corrente controllato in corrente tra collettore ed emettitore, con i versi
che devo usare indicati in figura, per le variazioni il verso delle correnti è lo stesso, utilizzo lo stesso identico
circuito equivalente.

Modello linearizzato per piccoli segnali in saturazione - MOSFET


Consideriamo il transistore NMOS.
La trattazione qui è enormemente semplificata grazie al fatto che l’espressione analitica della corrente in
funzione della tensione risulta essere piuttosto semplice.
Abbiamo la presenza del termine aggiuntivo che tiene conto della modulazione del canale.
Otteniamo una funzione f della tensione VGS e della tensione VDS.

Ipotizzando di avere la sollecitazione, in questo caso la vGS, posso scriverla come:

quindi lo stesso vale anche per la vDS:

Ammettendo tutto questo anche la IDS sarà data da una sua componente costante e una componente
variabile. Posso fare lo sviluppo di Taylor della corrente nell’intorno del punto di lavoro:

I termini di ordine superiore vengono trascurati con l’ipotesi di piccolo segnale, e possiamo inoltre
semplificare i termini a destra e sinistra coincidenti, ricavando che:
Ho due termini che tengono conto di come la corrente di drain dipende dalla tensione di gate e di come
possa dipendere anche dalla tensione di drain nel caso in cui sia presente l’effetto di canale corto.
Il che porta a esprimere il terminale equivalente come segue:

Abbiamo la nostra trans-conduttanza anche nel caso di piccolo segnale, in lettere minuscole perché si tratta
di una trans-conduttanza differenziale, valutata nel punto di lavoro, dipende dal punto di riposo.
L’altro termine tiene conto della dipendenza dalla vds.
Il circuito equivalente per piccoli segnali è allora il seguente:

Il terminale di gate è isolato anche nel caso di piccoli segnali, questo perché stiamo trascurando l’effetto
delle capacità, ipotizzando di lavorare in situazioni in cui le capacità intrinseche vengono considerati come
circuiti aperti, quindi il gate è isolato da drain e source.
Il drain è invece collegato al source da un generatore di corrente controllato in tensione.
Il termine rd è una resistenza che tiene conto dell’effetto di canale corto e risulta essere infinita nel caso in
cui lambda = 0.
Calcolandola esplicitamente:

Il valore successivo al fattore 2 non è altro che la corrente / VGS-VT, quindi posso scriverlo in quel modo.
Risolto il punto di lavoro posso automaticamente determinare il valore di gm.

A dipendere da VDS è solo lambda. Se guardiamo l’espressione, posso esprimerla in funzione della
corrente. Inoltre nel caso in cui 1/lambda >> VDSQ, quindi le caratteristiche sono poco piegate infatti
1/lambda che è l’intercetta delle caratteristiche con l’asse delle ascisse è >> VDSQ, posiamo fare un
ulteriore semplificazione.
Se lamba = 0, il termine 1/rd è nullo e quindi rd è infinita.

Il valore di lambda deve essere fornito dal costruttore perché dipende da come viene realizzato il
dispositivo e da come ho sclelto il valore di L, parametro scelto dal progettista.
Per semplicità considereremo rd->inf anche se poi nella realtà si deve considerare la sua presenza.
Questo è il circuito semplificato in cui non prendiamo in esame la presenza di rd.
Per il PMOS i due circuiti equivalenti per piccoli segnali coincidono.

Si può vedere analiticamente notando che gm è il rapporto tra due quantità o entrambe negative o
entrambe positive e quindi viene positiva in entrambi i casi.
Oppure si può dimostrare considerando che se abbiamo una tensione positiva la VGS aumenta perché
aumenta la tensione sul gate e quindi una VGS che aumenta mi fa aumentare la corrente, avremo una
componente IDQ fissa più una componente variabile concorde al verso di IDQ, la corrente quindi aumenta.
Qui sto facendo l’ipotesi di lamba = 0 per semplicità. Abbiamo che con VGG intendiamo VDQ nel circuito.

Un generatore positivo applicato sul gate mi da una corrente positiva sul drain.
Nel MOSFET a canale P se applico una tensione con questa polarità succede che in questo caso la tensione
sul gate, VSG, va a diminuire, i due generatori ora sono di polarità opposta, vgg variazione va a sottrarsi a
VGG, quindi la tensione di pilotaggio diminuisce, quindi la corrente deve diminuire e ho quindi una
componente complessiva data dalla somma di una componente costante e una componente variabile di
valore opposto alla IDQ.
Ottengo come effetto una corrente di drain variabile che entra sul drain.
Quindi da un punto di vista della corrente complessiva, alla componente costante data dal generatore VGG
si va a sottrarre una componente VGG.
Per calcolare gm*vgg che si va a sottrarre posso usare lo stesso circuito equivalente, perché anche qui
ottengo una corrente variabile entrante nel drain.

Nei circuiti a grandi segnali, quindi analisi nel punto di riposo, dobbiamo stare attenti che invece la corrente
del MOSFET a canale N scorre da drain verso source, mentre nel canale P scorre da source verso drain.
Ma durante l’analisi di piccolo segnale i due circuiti sono equivalenti, dove considero la corrente di drain
sempre entrante dal drain e un unico generatore di valore gm*vgs con il parametro gm sempre maggiore di
zero. Quindi per questo motivo nel caso di lambda= 0, gm si può scrivere anche come:

Questo perché nella corrente c’è VGS-VT al quadrato e quando estraggo la radice ottengo due soluzioni,
diverse a seconda se sono nel NMOS o PMOS ma se faccio il circuito equivalente per piccoli segnali per gm
basta prendere il modulo, nel NMOS entrambi sono positivi e nel PMOS sono entrambi negativi.

Amplificatore
Vediamo quali sono le configurazioni elementari che ci consentono di utilizzare i BJT e i MOSFET per
realizzare degli amplificatori, circuiti che sono in grado di amplificare il segnale.
Distingueremo i circuiti che sono in grado di fornire amplificazione di tensione da quelli che forniscono
amplificazione di corrente, ma basandosi su componenti attivi (MOSFET e BJT) sono in grado di fornire al
carico un guadagno di potenza.
L’amplificatore è schematizzabile come una scatola chiusa, con due porte, dove in quella di ingresso
mettiamo il generatore di segnale in serie una resistenza e un carico sulla porta di uscita, resistenza su cui
vogliamo fornire il segnale,
L’amplificatore viene posto tra il segnale e il carico e avrà al suo interno un circuito abbastanza complesso,
in grado di fornire un guadagno di potenza perché collegato all’alimentazione, potendo quindi trasferire al
carico un maggior contenuto di potenza.
I parametri descrittivi dell’amplificatore sono i seguenti:

Se Ai > 1 avrò un’amplificazione di corrente, altrimenti avrò un’attenuazione di corrente, lo stesso per gli
altri.
Per il guadagno di tensione si considera il caso in cui il carico non è applicato (quindi RL->inf), mentre con il
carico applicato avremo un’espressione diversa.
Tipicamente si ipotizza che non sia applicato nessun carico per dare un valore indipendente dal carico
stesso e quindi si definisce così.
La resistenza di ingresso è quello che si vede andando a guardare all’interno della porta di ingresso del mio
amplificatore.

Mentre Ro è la resistenza che si vede guardando dentro la porta di uscita, considerando vs = 0, devo infatti
disattivare il generatore di segnale di ingresso.
Questi parametri permettono di identificare le specifiche dell’amplificatore.
Noti questi parametri, la mia scatola può essere sostituita da un circuito equivalente di questo tipo:

In questo circuito la porta di ingresso viene sostituita con una resistenza e quella di uscita viene
schematizzata con un generatore di tensione controllato in tensione con in serie una resistenza.
In alternativa si può avere un generatore di corrente controllato in corrente al posto del generatore di
tensione controllato in tensione, con in parallelo Ro (quindi come se facessi l’equivalente di thevenin e
norton).
Se conosco i parametri posso schematizzare l’amplificatore in questo modo dimenticando com’è fatto
realmente l’amplificatore al suo interno.
Un amplificatore può essere infatti realizzato medtante più transistori al suo interno collegati tra di loro.

Come analizzo un circuito che contiene un BJT o un MOSFET?


Devo ripercorrere la stessa tipologia di analisi fatta col diodo.
Le cose si complicano perché i circuiti equivalenti sono più complessi ma la metodologia è la stessa.
Ho due fasi da seguire.
La prima fase è quella in cui determino il punto di riposo, analisi in DC, in cui considero il comportamento
del circuito quando agiscono solo i generatori indipendenti di valore costante.
Disattivo i generatore di segnale, se ho un generatore di tensione avrò un cortocircuito, mentre se ho un
generatore di corrente ho un circuito aperto.
Lavoriamo con tensioni costanti e quindi condensatori e induttanze si trasformano opportunatamente.
Sostituisco a questo punto al mio componente non lineare il suo modello per ampi segnali.
L’analisi del circuito va fatta sotto le opportune ipotesi, BJT in ZAD, il MOSFET con l’ipotesi della
saturazione, e a fronte di queste sostituzioni si va a determinare il punto di riposo.
Si va a determinare la corrente nei rami, le tensioni nei nodi e così possiamo determinare il punto di riposo
di tutti in transistori presenti nel circuito.

Noto questo si va a fare l’analisi in AC, a media frequenza, detta così perché viene fatta a quelle frequenze
per le quali i condensatori presenti nel circuito esterni al mio dispositivo possono essere considerati
cortocircuiti e le induttanze dei circuiti aperti.
Disattivo i generatori di valore costante, sostituisco induttanze e condensatori, sostituisco i componenti non
lineari con il loro modello per piccoli segnali e trascuro la presenza dei cosiddetti condensatori intrinseci.
Infatti nella realtà abbiamo la presenza di capacità perché il BJT per esempio, ha due giunzioni ad ognuna
della quale viene associata una capacità e quindi ho la presenza di due condensatori nel dispositivo, nella
nostra analisi non consideriamo i condensatori.
Considero il comportamento dell’amplificatore quindi per frequenze per cui questi condensatori possono
essere considerati circuiti aperti.
A questo punto risolvo il mio circuito e determino i parametri del mio amplificatore.
La sequenza di operazioni va seguita in quest’ordine perchè per determinare i componenti del modello
linearizzato devo aver risolto il punto di riposo, perché dipendono dal punto di riposo.

Vediamo adesso alcune configurazioni, due per il BJT e due per il MOSFET.
Vediamo adesso il caso più semplice con gli amplificatori a singolo stadio, quindi con un singolo
componente attivo al suo interno.

Stadio amplificatore a emettitore comune senza resistenza di emettitore (BJT)

Abbiamo il BJT con il suo circuito di polarizzazione a quattro resistenza, collegata alla nostra tensione VCC.
Valutiamo la polarizzazione a componenti discreti, quindi un amplificatore a componenti discreti con
singola alimentazione di cui abbiamo già valutato il punto di riposo e abbiamo visto che per stabilizzare il
punto di riposo è opportuno utilizzare questa configurazione.
Per applicare il segnale viene molto spesso fatto un accoppiamento tramite un condensatore, in molti casi il
segnale che sarà variabile a una certa frequenza, viene applicato tramite un condensatore, perchè si vuole
in far modo che la resistenza interna al generatore di segnale che qui non è rappresentata, si vuole che il
generatore non vada a influire sul punto di riposo.
Se io collegassi direttamente Vs con la resistenza Rs in serie senza C1 allora Rs influenzerebbe il valore del
punto di riposo, devo infatti cortocircuitare Vs e Rs verrebbe in parallelo a R2
Questo comporterebbe che cambiando generatore di segnale otterrei un punto di lavoro sempre diverso.

Accoppiando con un condensatore ottengo come effetto che il mio punto di riposo è indipendente perché
quando sono in continua ho un circuito aperto al posto del condensatore, con l’accortezza che il
condensatore deve essere scelto di valore opportuno in modo tale che alla frequenza del mio segnale VS
questo condensatore risulta essere un cortorcuito.
In questo caso alla frequenza del segnale C1 è un cortocircuito e quindi Rs viene applicato correttamente
alla base.
Nella configurazione a emettitore comune il segnale viene applicato al terminale di base del amplificatore,
mentre la tensione di uscita viene applicata sul collettore tramite molto spesso un carico che qui non è
disegnato.
Anche questo è accoppiato tramite il condensatore, proprio perché si fa in modo che RL non vada a
interferire con il punto di lavoro, questa configurazione consente di applicare un carico e il mio segnale in
modo tale da non influenzare punto di lavoro.
Il punto di lavoro viene determinato in modo indipendente, lo stabilizzo scegliendo opportunatamente
R1,R2 e RE e dopodichè applico il segnale alla base tramite i condensatori C1 e C3, che prendono il nome
per la funzione che svolgono di condensatori di accoppiamento, perchè consentono di accoppiare il
segnale alla base, e il carico al collettore.
Se voglio valutare il comportamento senza resistenza di emettitore dal punto di vista del segnale, posso
metterci in parallelo il condensatore C2 che sarà scelto in modo tale da essere considerato alla frequenza
del segnale un cortocircuito, chiamato condensatore di bypass per questa funzione.
Ammettendo che questa è la nostra configurazione, dobbiamo innanzitutto trovare il punto di riposo:

A frequenza nulla, quando abbiamo un generatore di tensione non variabile nel tempo, abbiamo il
condensatore come circuito aperto. Quindi mi riporto al circuito che abbiamo già studiato e determino il
punto di riposo.
Posso allora determinare i valori dei parametri h.
Questo in linea teorica, molte volte possiamo fare le solite semplificazioni.
Successivamente posso fare l’analisi in media frequenza:

Faccio l’ipotesi che i condensatori di accoppiamento e di bypass siano cortocircuiti proprio per la loro
funzione, quelli di accoppiamento devono fare passare il segnale e quelli di bypass devono bypassare dei
componenti, il segnale passerà attraverso il condensatore e non tramite la resistenza.
Vado a sostituire al BJT il suo modello per piccoli segnali, utilizzeremo il modello semplifcato con hoe = 0 e
hre = 0 e quindi quello che si ottiene è il seguente circuito:

Parto da VS, incontro R2 che collega la base a GND e la base collegata a VCC tramite R1, ma VCC = 0, ho
quindi un cortocircuito e quindi è come se in terminale in alto fosse a ground, quindi R1 collega la base a
ground in termini di segnale e quindi in parallelo a R2, dopo individuo i 3 terminali BCE e sostituisco a questi
tre il mio circuito equivalente semplificato. L’emettitore è collegato al terminale di riferimento tramite il
parallelo di C2 ed Re, ma C2 è un cortocircuito e quindi ho il collegamento al riferimento, poi il terminale C
è collegato alla resistenza Rc, poi C3 è un cortocircuito e quindi la differenza di potenziale è pari a vo.
A questi punto questo è il mio amplificatore di cui ora si possono calcolare i vari parametro.
Dato il circuito equivalente, la resistenza di ingresso e di uscita possono essere calcolate in varie sezioni del
circuito, posso valutarla come Ri a monte di hie o a monte del parallelo, ho due possibili definizioni.
Lo stesso per Ro, che posso valutarla sia a valle del generatore di corrente controllato in corrente, o a valle
di Rc includendo anche la resistenza di polarizzazione.

Vediamo come determinare il guadagno di corrente.


Se prendo come corrente di ingresso i1 e come quella di uscita io, ottengo:

Uno stadio a emettitore comune come quello in figura è in grado di fornire un’amplificazione di corrente
non trascurabile, considerando che hfe è pari a una centinaia.
Poi come guadagno di tensione prendendo vo, e per vi prendo quella di ingresso pari a vs:

Otteniamo un valore negativo per il verso in cui scorre la corrente.


Notiamo che il guadagno di tensione è negativo.
Se applichiamo un segnale vs variabile nel tempo, in uscita abbiamo una tensione che è sfasata di 180°
rispetto al segnale di ingresso, lo stadio a emettitore comune è detto infatti stadio invertente.
Se applichiamo un segnale sulla base e andiamo ad applicare sul collettore nella configurazione a
emettitore comune, il segnale viene amplificato ma anche invertito di segno.
Il valore dell’amplificazione di tensione dipende da hre*RC/hie, quindi se hie e Rc sono dello stesso ordine
di grandezza, allora Av viene elevato anche in questo caso per via dell’ordine di hfe.
Il mio amplificatore a emettitore comune, senza resistenza di emettitore, è uno stadio in grado di fornire
un’elevata amplificazione di corrente e di tensione, quest’ultima negativa.
Vediamo gli altri parametri partendo da Ri, a monte di hie:

La resistenza che vedo a monte di hie in uno stadio a emettitore comune senza la resistenza di emettitore è
pari a hie.
Ri’ sarà dato dal parallelo di hie con R1 e R2.

La resistenza che il generatore vs vede è data da questo valore. Vediamo le resistenze di uscita.
La ro è il rapporto tra la vo e io, valutata quando vs = 0.

Se vs = 0, la corrente iB è nulla, quindi hfe * ib = 0, e quindi anche io = 0 e quindi si ottiene questo valore.

Ricordare che quando vogliamo calcolare la resistenza vista con dei generatore dipendenti, questi non si
possono spegnere a nostro piacimento, abbiamo cortocircuitato VS, dopodichè dovrei applicare un
generatore di prova in uscita per valutare io, per esempio un generatore di corrente ip e in tal caso devo
valutare la vp per trovare l’impedenza, ma quando applico ip ai capi dell’uscita, questo non può
determinare una corrente di base nel circuito di ingresso, quindi iB = 0 qualunque sia quello che mettiamo
sul circuito di uscita. Anche usando vp come generatore di prova, comunque iB = 0, e quindi ro -> inf, la
resistenza vista a valle del mio generatore hfe*iB verso l’uscita è infinita.

In quest’analisi stiamo considerando la resistenza di uscita escludendo il contributo di Rc.


L’espressione di Ro’ è invece:

RC parallelo a una quantità infinta è pari a Rc stesso.


La resistenza di uscita assume espressioni diverse a seconda di dove la vado a valutare.

Stadio amplificatore a emettitore comune con resistenza di emettitore


Se consideriamo lo stesso stadio con la resistenza RE, configurazione diversa in cui decido di non
cortocircuitare Re, non c’è più il condensatore di bypass in parallelo a Re.

Per il punto di riposo ottengo gli stessi valori, però cambia il circuito equivalente per piccoli segnali.
Ora Re non è cortocircuitata, ho l’emettitore non più a terminale di GND ma collegato ad esso tramite la
resistenza Re. Ora risolvo il circuito con la differenza che Re mette in comunicazione la maglia di uscita e
quella di ingresso.

Vediamo l’effetto su alcuni parametri.


Il guadagno di corrente non cambia, anche se c’è la resistenza di emettitore.

Un altro parametro che non cambia è la ro.


Se spegniamo e quindi cortocircuitiamo il generatore vs e applichiamo un generatore di segnale di prova in
uscita, anche qui avremo iB = 0. Un generatore posto in uscita dopo hfe*iB non può darmi un iB.
Ro’ è quindi data da Rc in parallelo a una resistenza infinita e quindi:

Vediamo le conseguenze sugli altri due parametri:

vi sarebbe questa ma coincide con vs.

Scorre la corrente in RC pari a hfe*ib con il verso in figura e quindi vo ha il segno meno.
Ma stavolta vi data dalla caduta su hie ma anche dalla caduta su Re.

Posso andare a scrivere poi l’equazione al nodo di emettitore. Quindi ottengo:

Quindi il rapporto sarà pari a:

Ho una nuova espressione del guadagno di tensione, sempre negativa, l’aggiunta di re non cambia infatti la
tipologia dello stadio che rimane sempre invertente.
E’ cambiata l’espressione però, posso vedere che la presenza di Re mi ha portato un termine aggiuntivo al
denominatore, di una certa entità, anche se Re è dello stesso ordine di grandezza di RC ho aggiunto un
termine dell’ordine di 300.
Possiamo quindi dedurre che:

L’amplificazione di tensione che ho con la presenza di Re è molto più piccolo di quando Re non è presente.
La presenza di Re è necessaria per stabilizzare il punto di riposo ma ha però effetti negativi sul guadagno di
tensione, abbassandolo notevolmente. Per questo motivo Re viene anche indicata come resistenza di
degenerazione di emettitore, degenera il guadagno.
Questo è uno dei motivi per cui in alcuni casi si preferisce per il segnale andare a cortocircuitare Re con un
condensatore di bypass, cosi da togliere Re per quanto riguarda il segnale e avere guadagni più alti.
Spesso si usa una soluzione intermedia tra il caso in cui viene completamente eliminata e il caso in cui RE si
tiene, perchè è vero che il guadagno è molto più piccolo ma se:

Considerando che hfe è dell’ordine di 300, quindi l’unità è trascurabile, Av è circa uguale a -Rc/Re, risultato
da non trascurare, la presenza della resistenza di emettitore mi fa diminuire il guadagno ma se scelta
opportunatamente mi permette di scegliere il guadagno indipendente dalle caratteristiche del transistore e
dipende solo dal rapporto della resistenza di collettore ed emettitore.
Ho un guadagno più piccolo ma più affidabile, un rapporto tale che se le due resistenze dipendono in egual
modo dalla temperatura, anche in temperatura risulta essere stabile, cosa che non ho se Av = -hfe * RC/hie,
il guadagno in tal caso dipende sia dalle caratteristiche del transistore che dalla temperatura, mentre qui il
guadagno dipende solo da componenti esterni al BJT.
Quando non ho Re ho una forte dipendenza anche dalla temperatura grazie a VT perchè hie dipende da VT
e so dire il valore del guadagno a priori qualunque sia il transistore da utilizzare.
Vediamo come cambia la resistenza di ingresso:
Ho un risultato importante che ci dice che se valuto la resistenza che vedo sulla base guardando dentro alla
base subito a valle di hie, la resistenza vista sarà data dalla resistenza hie e la resistenza presente
sull’emettitore, in questo caso RE, moltiplicata per il termine hfe+1. Quando vista dalla base viene
moltiplicata per hfe +1.
Ovviamente la Ri’, sarà data dal parallelo tra:

Lo stadio a emettitore comune fornisce sempre un guadagno elevato di corrente, una resistenza di uscita
infinita se la guardo a valle del generatore di corrente controllato e dopodichè mi fornisce un guadagno di
tensione sicuramente negativo perché ho uno stadio invertente, poi il valore può essere più o meno grande
a seconda della presenza di re. Lo stesso la resistenza di ingresso, che valuto ai capi della base, ho in un
caso hie e nell’altro mi aumenta notevolmente per la regola di riflessione.
La presenza di RE mi fa aumentare la resistenza di ingresso, diminuire il guadagno ma mi rende il guadagno
indipendente dalle caratteristiche del transistore.

Stadio amplificatore a collettore comune


Abbiamo qui che il collettore è l’elemento a comune tra l’ingresso e l’uscita. Il segnale viene applicato sulla
base e viene prelevato in uscita sull’emettitore, cosa che viene fatta attraverso il condensatore.
Rc non dà dei contributi e quindi molto spesso viene presa nulla, il collettore viene collegato direttamente a
VCC.

Si va a studiare il circuito per punto di riposo nello stesso modo in cui l’abbiamo visto.
Passiamo direttamente all’analisi del circuito per le variazioni, costruendolo come nello stadio a emettitore
comune. E’ possibile trattare anche le altre due configurazioni possibili, a collettore comune e a base
comune utilizzando sempre hie e hfe.
Andrebbero introdotti in questo caso i parametri hic e hfc e ci sono delle formule per passare da hie a hfe a
questi parametri ma noi affrontiamo i circuiti con i parametri già trovati hie e hfe.
Il circuito si costruisce partendo da vs, poi notando che R1 e R2 sono in parallelo perché sono collegati alla
base e al terminale di riferimento (VCC è infatti disattivato), e poi tra B-C-E inseriamo il circuito equivalente.
Non cambia nulla rispetto a prima per quanto riguarda il nostro circuito equivalente, si utilizza sempre lo
stesso modello e ciò avviene anche nella configurazione a base comune, semplicemente individuiamo BCE e
ci andiamo a inserire hie e hfe*ib con i versi corretti.
L’unica differenza è che ora sul circuito la tensione di uscita la prendo su RE, la porta di ingresso continua ad
essere la base e la resistenza di ingresso sono le due che vedo guardando dentro la base, mentre la
corrente di uscita diventa la corrente di emettitore e può essere a monte o a valle di Re e la tensione di
uscita è ai capi di Re.
Possiamo quindi analizzare le 4 grandezze di interesse per il nostro circuito.
Vediamo prima le grandezze che non cambiano, perché applico il segnale anche qui sulla base e quindi le
resistenze di ingresso assumono anche gli stessi valori.

Ottengo la stessa espressione per lo stadio a emettitore comune. Ho come risultato il valore della resistenza
della base sommato alla resistenza dell’emettitore* (hfe +1). Mentre:

Per la resistenza di uscita ci aspettiamo delle differenze perché adesso la resistenza di uscita è quella vista
dall’emettitore:

La corrente di output solitamente si prende con il verso entrante.


Usiamo il metodo canonico che si ha quando nel circuito vi sono generatori controllati.
Applichiamo un generatore di prova inserito tra i due terminali nei quali voglio calcolare la resistenza ai suoi
capi.
Mettiamo un generatore di prova di tensione e calcoliamo la corrente che eroga, il loro rapporto mi darà il
valore della resistenza di uscita vista dal generatore.
Possiamo notare che R1 || R2 non dà alcun contributo, perché poste in parallelo a un cortocircuito,
ottenuto cortocircuitando vs. Si ottiene quindi.

Posso anche ricavare l’equazione tra ip e le due correnti facendo il bilancio delle correnti al nodo di
emettitore:

Trovo anche qui una regola di riflessione della resistenza ma in questo caso verso l’emettitore. La resistenza
che vedo guardando dentro l’emettitore è pari a tutta la resistenza che vedo collegata alla base divisa per il
fattore hfe + 1. Se vogliamo calcolare la resistenza a valle di RE invece:

Quindi a differenza di quanto visto prima con l’altra configurazione, in cui la resistenza di uscita era quella
del collettore, in questo caso la resistenza vista dal collettore è data da hie/hfe+1 ed è quindi molto piccola,
hie è dell’ordine del kOhm e hfe è dell’ordine di 300, quindi la resistenza vista è dell’ordine di qualche
decina di ohm, che quindi dovrà andare in parallelo a RE e quindi ho che la resistenza vista dall’emettitore è
piccola a sua volta, dovuta a questa proprietà di riflessione della resistenza.
Vediamo il guadagno di corrente:

Ne sussegue che:

Guadagno negativo ma piuttosto elevato, quindi in entrambi in casi è


di buon livello e dell’ordine di hfe.
Calcoliamo il guadagno di tensione:
E’ un guadagno di tensione applicato sulla base e prelevato sull’emettitore, in questo caso positivo.
Questo stadio è non invertente, non c’è nessun tipo di sfasamento tra il segnale di ingresso e il segnale di
uscita. Questa è una differenza tra le due configurazioni.
Questa cosa sarà utile se utilizziamo più stadi in cascata, se abbiamo uno stadio invertente in cascata a uno
stadio non invertente ci darà un segno negativo, mentre la cascata tra due invertenti ci darà un segno
positivo.
Possiamo inoltre notare che a denominatore abbiamo una stessa quantità a cui viene sommata hie che è un
valore positivo quindi si deduce che il denominatore sarà sempre maggiore del numeratore e quindi questa
quantità sarà sempre minore di 1.
Inoltre, hie è dell’ordine del KOhm, Re viene solitamente presa dello stesso ordine di grandezza e se
moltiplicata per un fattore 300, molto spesso otteniamo:

Se vale questa ipotesi, allora abbiamo che:

Applichiamo un segnale di ingresso sulla base lo preleviamo sull’emettitore e il segnale di tensione è circa
uguale a quello di ingresso, ecco perché si dice che il segnale di emettitore insegue quello sulla base.
Questo stadio è infatti anche detto inseguitore di emettitore(emitter follower).
Si definisce come amplificatore perché ha un’amplificazione di corrente dell’ordine di hfe+1.
Si parla di amplificatore in termini di potenza applicata al carico, fornisce un grande guadagno di corrente
ed è in grado di fornire al carico circa la stessa tensione.
Inoltre, questo stadio che è in grado di fornire un guadagno unitario di tensione e avere una resistenza di
ingresso elevata (Ri che è pari a hie + Re(hfe+1)) e una resistenza di uscita bassa (hie/hfe+1) viene chiamato
anche stadio buffer, utile per trasferire il segnale da un generatore di segnale a dei carichi di valore piccolo.

La terza configurazione, a base comune, non la andiamo ad analizzare.


Vediamo le due corrispondenti configurazioni realizzate con il transistore MOSFET.

Stadio amplificatore a source comune senza resistenza di source


Il terminale di ingresso è il gate, il terminale di uscita è il drain e il terminale a comune è il source.
Il segnale viene applicato sul gate e viene prelevato sul drain.
Se vogliamo evitare che il generatore di segnale possa modificare il punto di riposo possiamo fare un
accoppiamento tramite il condensatore e se vogliamo prelevare la tensione di uscita in modo tale da non
disturbare il punto di riposo lo posso fare con un condensatore di accoppiamento.
Visto che è stata inserita la resistenza di source, per ottenere il punto di riposo il più indipendente possibile
dalle caratteristiche del dispositivo inserisco un condensatore di bypass che mi va a cortocircuitare la
resistenza alle frequenze del segnale che sto applicando.
Si usa vi per non confonderlo con vs, tensione di source.

Faccio l’ipotesi di zona di saturazione per sostituirlo con il modello per ampi segnali.
Nei MOSFET disponiamo però di una equazione analitica piuttosto semplice, soprattutto se trascuriamo la
dipendenza da vds.
Trovo la tensione sui nodi e la corrente nei rami e determino il punto di riposo del circuito: IDQ, VDSQ e
VGSQ. La quarta quantità la IGQ viene sempre presa nulla
Determinati questi parametri dovrò fare la verifica che l’ipotesi che ho fatto sia soddisfatta e che quindi la
soluzione che ho trovato sia corretta.
Trovato il punto di riposo determino i valori di gm e rd, così da realizzare il circuito per piccoli segnali.
Il parametro lambda mi occorrerà per determinare il valore di rd. Molte volte considereremo nullo l’effetto
di modulazione di canale e quindi ci calcoleremo solo il valore di gm.

Disegno ora il mio circuito per piccoli segnali.


Si parte dal generatore vi, C1 è un cortocircuito, poi abbiamo il gate collegato tramite R2 e R1 a GND
(considerando che poi anche VCC = 0), poi ho un terminale isolato che non ha nessun tipo di collegamento
con gli altri due. Individuo il terminale di drain e tra quello di drain e source inserisco il generatore gm*vgs,
ho quindi il circuito equivalente semplificato mentre se poi voglio avere anche rd, in parallelo al generatore
avrò anche la resistenza rd. Poi collego tutti gli elementi collegati al drain e al source, il source è collegato a
GND se C2 è un cortocircuito, e anche RD è collegata al terminale di riferimento, Vo è collegata tra il drain e
il GND e quindi Vo è ai capi di RD, che risulta in questa configurazione anche in parallelo a rd e quindi a
gm*vgs.

Se rd non è presente, il circuito diventa ancora più semplice.

Il terminale di source coincide col terminale di riferimento e quello di drain è quello in alto al generatore di
corrente controllato in tensione.
Disegnato il nostro circuito ne andiamo a studiare il comportamento e andiamo a determinare i suoi
parametri.
Cominciamo dall’amplificazione di corrente, essendo la corrente di ingresso del MOSFET nulla si ottiene:

Almeno nel nostro modello semplificato in cui non si considera i condensatori intrinseci.
Applicando il segnale sul gate sappiamo che il gate non assorbe corrente e quindi fornisce un valore sempre
infinito.
Ed essendo la i1 = 0, anche in questo caso otteniamo:

Se prendo la Ri’ la cosa cambia, la resistenza vista dal generatore vi complessivo è pari a:
Vediamo la ro invece:

La ro’’ deve essere valutata per vi = 0 ma nella nostra configurazione vi = 0, vgs = 0:

Quindi il generatore sarà disattivato e quindi ho un circuito aperto.


La resistenza a valle del mio generatore gm*vgs tende a infinito.
Ro sarà data dalla resistenza a valle di rd e quindi questa quantità sarà data da Ro’’ || rd:

Quindi:

Vediamo adesso il guadagno di tensione cercando di esprimerlo in funzione di una stessa grandezza così
che il rapporto ci darà un valore indipendente dalla grandezza applicata:
Posso considerare un’unica resistenza data dal parallelo di rd e RD e quindi la caduta di potenziale è data
dalla resistenza per la corrente che vi scorre, che scorre nel verso in figura:

Dopodichè ho vi esattamente pari a vgs.

Posso allora dire che il guadagno è negativo, quindi ho uno stadio invertente.
Il suo valore dipende esattamente dal valore di gm, parametro fondamentale del transistore MOSFET,
moltiplicato per il parallelo della resistenza di rd e RD, otterrò valori non piccoli e quindi ottengo una buona
amplificazione di tensione, essendo sicuramente in modulo maggiore di 1.
Questo è il comportamento dello stadio a source comune senza resistenza di source.

Stadio amplificatore a source comune con resistenza di source

Per il punto di riposo non cambia nulla, valuto IDQ, VDSQ e VDSQ e determino gm e rd.
Disegniamo il circuito equivalente:
Il source ora è collegato al terminale di riferimento tramite una resistenza Rs.

Il circuito è leggermente modificato ma comporta delle grande variazioni.


Il circuito è quello disegnato sopra ma per semplicità di trattazione si prende il caso in cui rd->inf
trascurando l’effetto di canale corto, quindi il circuito diventa quello disegnato sotto.
Questo tipo di trattazione è possibile per componenti discreti dove il canale è molto lungo mentre nei
componenti integrati questo non può essere fatto.

Rs è un elemento che mette in comunicazione l’ingresso con l’uscita. Vedremo come l’inserire RS ci
comporta una diminuzione del guadagno, infatti lo si può capire notando che il guadagno di tensione sarà
data dalla caduta su RD, e per quanto riguarda la corrente che vi scorre che è gm*VGS, però la VGS nel caso
precedente quando RS = 0 la VGS = vi, la mia tensione vi diventa una tensione direttamente uguale alla
VGS, mentre nel caso in cui invece c’è RS la vi è una partizione di vgs e la tensione sul source, di fatto solo
una parte di vi mi va a determinare la corrente mi scorre in uscita.
Mentre senza RS tutta la vi mi determina la corrente che scorre in uscita. Ciò ci fa capire come questo
guadagno sarà più basso qualitativamente.
La corrente i1 rimane pari a 0 e quindi ne sussegue che:
L’aver introdotto la resistenza di source non mi comporta nessun cambiamento per quanto riguarda i
parametri di ingresso, e questo p dovuto al fatto che il gate è separato dal source in termini di conduttanze.
Mentre nel BJT se andiamo a inserire una resistenza sull’emettitore questa si ripercuote sulla base ed è
dovuto al fatto che hie non è infinita e quindi B e E non sono isolati tra di loro, nel MOSFET ho un
comportamento diverso, il gate è isolato dal source e dal drain e anche se applichiamo una resistenza sul
source, guardando dal gate non ce ne accorgiamo.
Non ho nessun effetto sulla ro perché è infinita ed è la stessa di prima, la ro vista in coda al gm*vgs per vi =
0, ho che anche in presenza di RS, il gate viene anche qui cortocircuitato al source e vgs = 0 e quindi Ro =
inf. Quindi Ro’ diventa pari a RD.

Vediamo invece il guadagno di tensione esprimendo la vo in funzione della vi:

vi è pari alla tensione di gate vg e non più pari a vgs, non più pari alla differenza di potenziale tra il gate il
source ma è pari a tutta la vg e quindi devo valutare ora la vgs quanto vale.
La vs vale ora:

La vs sarà data dalla resistenza Rs moltiplicata per la corrente che vi scorre.


La vgs che è la grandezza di controllo della corrente, sarà pari alla differenza tra il potenziale di gate rispetto
al terminale di riferimento e il potenziale di source rispetto al potenziale di riferimento.

Posso portare quindi il secondo termine a primo membro e ottengo:

Ricavo un’importante relazione:

Non è più pari a vi, ma vi diviso una quantità positiva, essendo gm > 0 e Rs > 0.
Quello che avevamo detto intuitivamente, ovvero che quando è presente la resistenza Rs la vgs sarà una
parte della vi, e quale parte sarà ce lo dice questa espressione e ciò ci farà diminuire il guadagno di
tensione, perché abbiamo trovato l’espressione della vgs rispetto a vi e possiamo determinare ora vo,
caduta di tensione su RD, ma su RD ci scorre esattamente gm*vgs ma dal basso verso l’alto.
Sostituisco a vgs questa espressione che abbiamo ricavato e ottengo:

Ho ottenuto la mia nuova espressione del guadagno in presenza di Rs, e noto che il segno è ancora negativo
anche con l’aggiunta di RS che non va sicuramente a modificare il comportamento in termini di segno.
Cambia però l’amplificazione, rispetto a prima ora gm*RD è diviso per una certa quantità e quindi il
guadagno è diminuito. L’aggiunta di RS mi porta a diminuire il guadagno di tensione.

Nel caso in cui RS != 0 ho il termine 1 + gm*RS.


Per questo motivo RS viene detta resistenza di degenerazione di source, perché la sua presenza, che è
stata inserita legata a motivi relativi al punto di riposo mi fa diminuire il guadagno di tensione e quindi ecco
perchè in alcuni casi cortocircuitata con condensatori di bypass o completamente o parzialmente. La sua
presenza fa diminuire il guadagno e anche in questo caso se gm*RS risulta essere molto più grande di 1
abbiamo un guadagno che è circa uguale a -RD/RS e ci viene un guadagno più piccolo ma dato da un
rapporto di resistenze e quindi indipendente dalle caratteristiche del transistore.
Si ottengono le stesse considerazioni ottenute dal caso dello stadio a emettitore comune.

Stadio amplificatore a drain comune


Questo stadio è invece l’equivalente dello stadio a collettore comune nel BJT.
In questo caso il segnale viene applicato al gate e si va a prelevare sul source, infatti questo è detto stadio
inseguitore di source, troveremo che la tensione sul source è circa uguale alla tensione sul gate, quindi
guadagno di tensione è circa uguale a 1.
Supponiamo di aver risolto il circuito equivalente e vediamo il circuito per le variazioni:

Consideriamo per semplicità rd = inf, si individuano i tre terminali, tra G e S ho impedenza infinita e tra D e
S si mette gm*VGS, in parallelo avrebbe rd ma la trascuriamo, poi abbiamo RS tra source e terminale di
riferimento, in questo caso presente perché è dove vado a prelevare il segnale.

Per quanto riguarda l’ingresso non cambia niente.


Per quanto riguarda la resistenza di uscita guardo vo quando vi = 0, prendo il generatore di prova, lo
inserisco tra source e GND per vedere cosa vedo dal source e poi ho il mio generatore gm*vgs collegato a
riferimento, la mia rg viene cortocircuitata perché vi = 0.
Il circuito diventa molto semplice, il gate grazie a questo cortocircuito viene collegato al GND.

Posso dire che la per la resistenza di uscita:

Posso vedere quanto vale ip dal bilancio delle correnti sul nodo S.
Il gate è cortocircuitato quindi è come se fosse al terminale – di vp, quindi vgs = -vp.
Quindi abbiamo che la ip = gm*vp e si ottiene un risultato fondamentale, ovvero che la resistenza di uscita
vista da un source di un MOSFET è pari a:

Quando considero la presenza di RS otteniamo poi:

La resistenza 1/gm è piuttosto piccola e quindi tipicamente la resistenza di uscita è di piccola entità.
Torniamo al grafico precedente e guardiamo il guadagno di tensione:

La prima considerazione che possiamo fare è che il segno è positivo, quindi questo stadio è non invertente,
proprietà analoga allo stadio a collettore comune.
Non abbiamo nessuna inversione del segno quando preleviamo la tensione sul source dopo averla applicata
sul gate.
Inoltre Av è sempre minore di 1 e quindi si ha un’attenuazione del segnale.

La tensione sul source è una replica della tensione sul gate se vale ciò, ecco perchè viene detto inseguitore
di source, perché la tensione sul source insegue la tensione sul gate.
Ho una resistenza di uscita piccola, un guadagno di tensione unitario, una resistenza di ingresso elevata e
quindi abbiamo uno stadio che può essere usato come stadio buffer.

La terza configurazione possibile è quella a gate comune, che non tratteremo.


Amplificatori multistadio
Le configurazioni analizzate finora sono dette a singolo stadio, il circuito comprende un singolo elemento
attivo, quindi un singolo transistore in una opportuna configurazione.
Nella realtà è molto difficile che un singolo stadio in un amplificatore riesca a soddisfare le specifiche
richieste, quello che viene allora fatto tipicamente è mettere una serie di stadi in cascata, cercando di
combinare tra loro diverse configurazioni così da ottenere un amplificatore multistadio.
Ho più stadi in cascata, collegati al generatore vs con resistenza interna RS, e in uscita il collegamento al
nostro carico che possiamo schematizzare per esempio con una resistenza Rl.

Vediamo come analizzare un amplificatore multistadio. Se conosco i parametri di ciascun stadio quando
isolato (conosco per lo stadio j: Rij, Roj, Aij, Avj), quanto valgono i parametri complessivi?
Quando metto in cascata n stadi, il guadgno non è semplicemente il prodotto dei guadagni di ciascuno
stadio presi separatamente.

I guadagni che compaiono nel prodotto non sono quelli calcolati per i singoli stadi isolati, ma devono tenere
conto dell’interazione tra gli stadi stessi. Quindi Ai != Avi, se con Avi indichiamo il guadagno del singolo
stadio isolato. L’interferenza tra i vari stadi ne modifica il comportamento.
Prendiamo semplicemente la cascata di due stadi:

Supponiamo di conoscere per il primo stadio i vari parametri e lo stesso per il secondo che è in cascata al
primo. La resistenza di uscita del primo stadio è in serie alla resistenza di ingresso del secondo stadio.
Supponiamo di avere usato un voltometro ideale (con resistenza di ingresso infinita) per misurare la
tensione di uscita vo. Abbiamo che:

A1 è il rapporto tra tensione di uscita e tensione di ingresso del primo stadio quando il primo stadio è
inserito in cascata al secondo stadio.
Valutiamo v2, la caduta di tensione su Ri2, pari alla resistenza per la corrente che vi scorre:
Quindi:

E’ pari al guadagno di tensione che si ottiene lo stadio è isolato per un un partitore di tensione, quindi il
guadagno di tensione di uno stadio quando collegato in cascata su altri stadi non è il guadagno di tensione
che si ha quando è isolato ma è inferiore perché devo tenere conto che la resistenza di ingresso dello stadio
successivo si va a mettere in serie alla resistenza di ingresso dello stadio precedente. Ho una partizione
della tensione di uscita.
Si può dire che A1 = Av1, lo stadio isolato inserito all’interno di una catena di
stadi mantiene lo stesso valore del guadagno di tensione, solo quando il
partitore è uguale a 1 e lo è:
- o quando Ro1 = 0, considero lo stadio con resistenza di uscita
nulla
- o quando Ri2 è molto più grande della Ro1, tale da poter essere
considerata infinita. Ho quindi la resistenza di ingresso dello stadio a valle molto più grande
della resistenza di uscita dello stadio a monte.
Se si verifica questa condizione in gergo si dice che lo stadio a “valle” non carica lo stadio a “monte”.
Se vale per tutti gli stadi si può dire che il guadagno di tensione complessivo è il prodotto del guadagno dei
singoli stadi.Quindi:

con A2 che rimane Av2 perché in uscita abbiamo un’impedenza infinita.


Quindi oltre al prodotto di Av1 e Av2 devo considerare il partitore.
Notiamo quindi l’importanza di conoscere questi parametri.

Consideriamo ora il problema della scelta della configurazione circuitale da adottare per i vari stadi.
Se vogliamo ottenere un guadagno di tensione maggiore dell’unità, è evidente che non possiamo utilizzare
più stadi a collettore comune connessi in cascata, dato che il guadagno di ciascuno di essi è minore
dell’unità. Rimangono quindi solo gli stadi a emettitore comune, i quali possono essere combinati per
ottenere un guadagno più grande di quello di un singolo stadio poiché sia il loro guadagno di tensione sia
quello di corrente possono essere molto maggiori dell’unità. Stadi a base comune o a collettore comune
possono essere utilizzati all’ingresso o all’uscita di una catena multistadio nel caso sia necessario ottenere
particolari valori per le resistenze di ingresso e di uscita.

Analisi del comportamento in frequenza degli amplificatori


Prendiamo in esame il comportamento in frequenza degli amplificatori, che fino a ora abbiamo studiato nel
cosiddetto limite delle “medie frequenze”, in cui i condensatori che compaiono nel circuito vengono
considerati corto circuiti dal punto di vista delle variazioni e circuiti aperti per il funzionamento in continua.
Un simile comportamento corrisponderebbe però alla realtà soltanto se tutti i componenti elettronici
avessero davvero caratteristiche del tutto indipendenti dalla frequenza, come abbiamo finora supposto.
In realtà la presenza di componenti reattivi (condensatori e induttanze) determina una dipendenza dalla
frequenza di tutti i parametri caratteristici di un circuito elettronico.
Finora abbiamo considerato i condensatori inseriti per accoppiare il segnale al mio amplificatore o per
prelevare il segnale di uscita o per fare operazioni di bypass su alcuni elementi circuitali, li abbiamo
considerati dei cortocircuiti e abbiamo trascurato tutti i condensatori intrinseci, condensatori del
dispositivo attivo che sto considerando.
Per esempio i BJT contengono dei condensatori che tengono conto delle giunzioni presenti, nel MOSFET
tengono conto della capacità che c’è tra il gate e tra i terminali di drain e source, tra il gate e il canale, ecc.
I condensatori intrinseci li abbiamo considerati aperti e quelli esterni li abbiamo considerati cortocircuitati.
In tal caso veniva fatto lo studio in frequenza, legato al fatto che consideriamo la presenza di condensatori
di vario valore che hanno un’impedenza che varia in funzione della frequenza, e questo fa sì che anche la
fdt del circuito dipenderà dalla frequenza del segnale.
Per certe frequenze del segnale avrò un certo comportamento e per altro ne avrò un altro, e questo
dipende dai condensatori e dalle induttanze presenti nel circuito e quindi sono legati al fatto che nel
circuito ci sono un certo numero di poli e zeri da determinare e quindi la fdt conterrà i vari poli e i vari zeri.
Ne accenneremo solo alcuni risultati.
Quando considero il contributo condensatori presenti nel mio circuito aggiunti dall’esterno e quelli
intrinseci, generalmente si ottiene una risposta in frequenza e quindi un diagramma di bode in ampiezza,
dove abbiamo l’andamento del modulo della fdt in funzione della frequenza con un diagramma di questo
tipo, dove si può individuare una zona piatta, detta banda passante in cui ho l’amplificazione costante in
funzione della frequenza, separata da due zone in cui invece l’amplificazione diminuisce all’aumentare o al
diminuire della frequenza.
Questa zona con modulo costante viene chiamata banda passante dell’amplificatore, intervallo di
frequenza all’interno del quale il modulo del guadagno di tensione risulta essere costante.
I limiti inferiore e superiore di banda vengono individuati valutando la frequenza per cui questo guadagno
costante è diminuito di 3 db.
Il guadagno costante che ho all’interno della banda passante viene invece chiamato guadagno a centro
banda, si tratta infatti della zona al centro della banda. Se vado a fare il diagramma di bode reale e non
asintotico è esattamente dove il guadagno risulta essere costante.
Può esserci il caso in cui il limite inferiore di banda coincide con la frequenza nulla, si parla si amplificatori
accoppiati in continua, non abbiamo nessun condensatore di accoppiamento del segnale, il segnale
applicato direttamente in ingresso e quindi limite inferiore di banda coincide con frequenza nulla.
Il guadagno costante inizia quindi a frequenza nulla fino ad arrivare a un limite superiore di banda oltre il
quale il guadagno dell’amplificatore inizia a diminuire.
In molti casi ci troviamo ad operare in una situazione in cui i condensatori presenti nel circuito sono di
capacità molto diverse tra di loro, in particolare tipicamente le capacità dei condensatori intrinseci è molto
minore della capacità dei condensatori aggiunti dall’esterno, e quindi il loro contributo alla risposta (la loro
variazione è in frequenza) è su bande diverse.
Il modulo dell’impedenza della capacità è data da 1/wc quindi abbiamo che le frequenze in cui il
condensatore può essere considerato un cortocircuito sono più o meno grandi.
Se si risolve il circuito in dettaglio si trova che questo andamento in cui il guadagno del nostro amplificatore
diminuisce all’aumentare della frequenza solitamente è dato dal contributo dovuto ai condensatori
intriseci.
I condensatori intrinseci hanno valori delle capacità tali che poli e zeri associati a questi condensatori si
vanno a trovare a frequenze molte elevate, vanno a determinare il limite superiore di banda.

I condensatori esterni o estrinseci che ho applicato per fare il bypass e l’accoppiamento del segnale in
ingresso e in uscita vanno a determinare il limite inferiore di banda e l’andamento del comportamento del
mio amplificatore a bassa frequenza.
I condensatori esterni hanno una capacità molto più grande dei condensatori intrinseci e tale per cui i poli e
gli zeri che forniscono vanno a determinare la risposta in bassa frequenza.
Se mi trovo nella situazione i cui comportamenti a bassa e alta frequenza sono separarti da un banda
centrale piuttosto larga, i poli a bassa frequenza e i poli ad alta frequenza separati da almeno un paio di
decadi, allora la fdt dell’amplificatore può essere scritta in forma semplificata:

dove FL(s) e FH(s) sono funzioni che rappresentano il comportamento di A(s), rispettivamente,
alle basse (con tutte le singolarità a bassa frequenza) e alle alte frequenze (con tutte le singolarità ad alta
frequenza). Posso quindi scrivere la fdt complessiva come il prodotto di tre funzioni, ho una costante senza
presenza di singolarità di valore pari al valore del centro banda, moltiplicata per le due fdt.
A bassa frequenza posso vedere che la risposta è data dal prodotto del guadagno a centro banda per la
FL(s), che sarà un polinomio con a numeratore zeri e a denominatori dei poli, dovuti agli elementi reattivi
esterni:
Si può separare lo studio del mio amplificatore in tre zone.
Posso fare lo studio a centro banda (quello fatto finora) in cui considero i condensatori di grandi valori dei
cortocircuiti e quelli di valori piccoli dei circuiti aperti e posso poi studiare il circuito in bassa frequenza.
Posso per esempio calcolare i poli e gli zeri dovuti a componenti reattivi esterni considerando gli altri
condensatori circuiti aperti e poi faccio lo studio in alta frequenza, in cui considero solo i componenti
interni e considero invece i condensatori esterni come cortocircuiti, cerco quindi i poli e gli zeri dovuti ai
componenti intrinseci per valutare la FH(s).

Quindi tipicamente si determinano separatamente queste tre funzioni anziché risolvere il circuito con tutti i
condensatori.
Se sono nella situazione in cui i poli degli elementi reattivi esterni e quelli interni sono non interagenti
(separati da almeno un paio di decadi) posso avere un andamento approssimato valutando queste tre
funzioni.
Con FH(s) ha questa forma perché per per s piccolo (a basse frequenze) deve essere circa pari a 1.
Mentre per FL(s) si deve avere che per s->inf (ad alte frequenze) deve essere pari a 1.
Posso valutare poli e zeri degli elementi reattivi separandoli in due gruppi, il che mi semplifica il tutto
perché valuto il circuito con un numero di condensatori inferiori.
Una vota determinati tutti i valori posso determinare la mia fdt complessiva e trovare il comportamento in
frequenza del mio amplificatore.

Il grafico ci dice che se valutiamo la FH(s), esiste sempre un limite superiore di banda.
Gli elementi attivi che vado a utilizzare sono tutti componenti attivi in grado di fornire un guadagno di
potenza ma riescono a farlo solo fino ad una certa frequenza, oltre la quale non sono più in grado di
fornirmi un guadagno.
Questo è dovuto ai condensatori intrinseci del mio dispositivo e questa proprietà che mette in evidenza che
i componenti attivi oltre una certa frequenza non sono in grado di fornire un’amplificazione, è individuato
da un parametro di merito, riportato anche sulle caratteristiche che prende il nome di frequenza di
transizione o frequenza di taglio.
Per un transistore bipolare la frequenza di transizione (fT) è la frequenza a cui il guadagno di corrente di
cortocircuito dell’amplificatore nella configurazione a emettitore comune viene unitario.
hfe che determina il guadagno di corrente e di tensione che riesco a ottenere nella nostra trattazione è
sempre considerato costante ma nella realtà se faccio una trattazione più dettagliata e considero i
condensatori intrinseci, si ottiene che hfe non è costante in frequenza ma se grafico il suo modulo in db in
funzione della frequenza o della pulsazione, si ottiene un andamento di questo tipo, in cui ho il modulo
costante fino a una certa frequenza wB per poi diminuire in frequenza con pendenza di 6db per ottava, con
un andamento a polo dominante (-20db/dec), ed esiste quindi una frequenza wT in cui il modulo hfe è
diventato pari a 1, ho infatti 0 db.
Quindi il nostro BJT non è più in grado di fornirci nessun guadagno di corrente né tantomeno di tensione.
Questa viene infatti considerata come la frequenza massima cui il BJT può funzionare e nel caso in cui
l’andamento è a -20db/dec questa pulsazione è data dal prodotto del valore a frequenza bassa * wB,
frequenza a cui il guadagno hfe è diminuito di 3db.
Il prodotto del valore del guadagno a bassa frequenza per il polo (pulsazione polo perché è la pulsazione
per cui il guadagno è diminuito di 3db) e la banda è detto PGB, e coincide col valore per cui il guadagno è
unitario.
Per un transistore MOSFET, la frequenza di transizione (fT) è la frequenza a cui il guadagno di corrente di
cortocircuito dell’amplificatore nella configurazione a source comune diventa unitario.

Si ottiene una dipendenza interessante da alcuni parametri geometrici.


Vorrei che la fT fosse la più grande possibile, infatti maggiore sarà la frequenza a cui l’amplificatore sarà in
grado di fornire un guadagno.
Nel BJT dipenderà dalla mobilità dei portatori, maggiore è la mobilità dei portatori e maggiore saranno la
possibilità che il componente riesca a rispondere a segnali che variano velocemente.
Sia nel BJT che nel MOSFET la frequenza di transizione è direttamente proporzionale alla mobilità.
Tutti quei dispositivi in cui il comportamento è determinato dallo spostamento degli elettroni hanno una fT
maggiore di quella in cui a spostarsi sono lacune.
Nel BJT gli NPN hanno una fT maggiore degli PNP, e nei MOSFET quelli a canale N hanno una fT maggiore di
quelli a canale P a parità degli altri fattori,.
Si ha poi una proporzionalità inversa al quadrato dalla dimensione tipica del transistore, infatti nel BJT alla
fine l’effetto dell’amplificatore avviene nell’attraversamento della base.
Più la base è stretta e maggiore è la possibilità di rispondere a segnali ad alta frequenza, quindi è
proporzionale alla larghezza della base.
Nel MOSFET è legata alla lunghezza del canale, perché la modulazione della corrente avviene agendo sul
terminale di gate che va a modulare la corrente che attraversa il canale. I transistori a canale corto hanno
frequenze di funzionamento più alte. Nei BJT la fT è tipicamente maggiore di quella dei MOSFET.
Teoria semplificata della reazione
Il principio della reazione consiste nel riportare all’ingresso di un sistema una porzione del segnale in uscita,
in modo da modificare le proprietà del sistema stesso. In campo elettronico abbiamo già incontrato un
esempio di reazione, anche se non l’abbiamo identificato come tale: l’inserzione di una resistenza di
emettitore nel circuito di polarizzazione di un transistore consente di ottenere una reazione che stabilizza il
punto di lavoro. In tutti questi casi nei quali lo scopo è quello di mantenere una grandezza costante, la
reazione che si realizza è di tipo negativo, vale a dire che il segnale riportato in ingresso ha segno rovesciato
rispetto a quello del segnale di ingresso che lo ha prodotto. In questo modo ogni variazione determina un
effetto a essa opposto, che tende a contrastarla.
Si ha una cosiddetta reazione di tipo negativo e mantiene costante la grandezza di uscita. Esiste anche la
reazione di tipo positiva, usata per mantenere instabilità volute, per esempio per ottenere degli oscillatori,
circuiti elettronici che sono in grado di presentare un segnale di uscita variabile nel tempo in assenza di
un’oscillazione esterna.
Solitamente in campo elettronico la reazione utilizzata è negativa, anche se gli scopi per cui viene realizzata
sono ben più vari che della semplice regolazione di una grandezza.

Nell’ambito della teoria semplificata, un circuito in reazione viene descritto sulla base di uno schema a
blocchi corrispondente a quello di seguito riportato e costituito da un blocco A amplificatore di base, una
rete per il prelievo della grandezza di uscita, una rete di reazione B e una rete sommatrice che consente di
sommare il segnale di reazione con quello di ingresso. Abbiamo quindi questi 4 blocchi principali.
Si preleva tramite la rete di prelievo una porzione del segnale di uscita del nostro amplificatore, e tramite
una rete di reazione si riporta in ingresso dove una rete sommatrice che combina il segnale di retroazione
con il segnale di ingresso in modo opportuno.

La rete di prelievo e sommatrice in campo elettronico possono essere di due tipologie diverse.
Per la rete di prelievo, il prelievo in uscita può essere di due tipi: di corrente, nel caso in cui la grandezza
prelevata sia la corrente nel carico (si apre uno dei due rami che collegano il mio amplificatore alla mia
resistenza e si va a campionare la corrente di uscita), oppure di tensione, se la grandezza prelevata è la
tensione ai capi del carico (in questo caso tutta ma può essere anche una parte).
Per la rete sommatrice la re-inserzione in ingresso può essere anch’essa effettuata in due modi diversi,
riportando la grandezza di reazione in serie o in parallelo al generatore posto in ingresso.
Si parla in tal caso, rispettivamente, di reazione serie o parallelo.
Il segnale prelevato dall’uscita ed elaborato dalla rete di reazione deve essere sommato in qualche modo
con il mio segnale di ingresso e posso avere quindi queste due tipologie di re-inserzione.
Il generatore di segnale viene schematizzato in serie a una sua resistenza interna.
Il segnale viene posizionato in serie in modo tale che il segnale che arriva in ingresso all’amplificatore sarà
dato dalla serie dei due segnali.
L’inserzione in parallelo con la rete di reazione va a inserire il suo segnale in modo tale che la corrente
complessiva applicata sarà data da una combinazione del segnale e della reazione.

Si hanno quindi, in totale, quattro tipologie diverse di circuiti in reazione: con reazione
serie di tensione, parallelo di tensione, serie di corrente, parallelo di corrente, tipologie di circuiti che hanno
degli effetti diversi sul comportamento del mio dispositivo.
Queste tipologie di reazione hanno effetti diversi sulle impedenza di uscita e di ingresso, noi faremo una
trattazione semplificata e vediamo una rappresentazione generale di una rete in reazione, ove le grandezze
sono indicate con X, in modo che possano rappresentare sia tensioni sia correnti. Indichiamo con Xs la
grandezza di ingresso proveniente dall’esterno, con Xi la grandezza all’entrata dell’amplificatore di base A,
con Xo la grandezza di uscita applicata al nostro carico e con Xf la grandezza di reazione, ottenuta facendo
attraversare a Xo la rete di reazione con fdt B. Quindi Xf = BXo e, in conseguenza dell’azione del
sommatore, Xi = Xs + Xf.

Applichiamo 3 ipotesi semplificative che ci consentono di trattare il sistema in modo molto semplice:
1. L’amplificatore è unidirezionale, il segnale all’interno dell’amplificatore può andare solo
dall’ingresso verso l’uscita. Quindi l’amplificatore non ha nessun percorso all’interno ce consente al
segnale di uscita di tornate verso l’ingresso.
2. La rete di reazione è unidirezionale. Anche il blocco con fdt B può far percorrere il segnale solo da
destra verso sinistra, semplificazione forte perchè essendo B tipicamente una rete di resistenze non
si può dire che la rete è unidirezionale
3. Il fattore di reazione B è indipendente dalla resistenza di sorgente Rs e da quella del carico RL.
Qualunque siano le impedenze collegate ai due estremi, la rete di reazione ha fdt sempre pari a B.
Le frecce disegnate individuano il verso del segnale.
Vediamo quanto vale il guadagno complessivo, rapporto tra Xo e Xs.
Ho A che mi amplifica il segnale di ingresso ma io vorrei conoscere il rapporto tra segnale che ottengo sul
carico e segnale di ingresso che applico dall’esterno.

XF = B*Xo perché abbiamo fatto l’ipotesi che B sia costante qualunque cosa applico e che sia unidirezionale.

Sostanzialmente ho ottenuto che una volta noti A il valore di B, la fdt ad anello chiuso del circuito è data da:

Possiamo quindi dare delle definizioni.


A è detto guadagno ad anello aperto, perché è il guadagno dela rete quando non c’è la reazione.
BA è detto guadagno d’anello, un segnale che percorre tutto l’anello subisce infatti A e poi B.
Mentre la quantità che abbiamo calcolato prima:

è detta così perché si tratta del guadagno della rete quando questa è chiusa in reazione.
Se la rete non è sommatrice ma sottrattrice, a denominatore troviamo il segno +, il tutto dipende da come è
schematizzato il circuito.
Possiamo dire che se il guadagno ad anello chiuso in modulo è minore del guadagno ad anello aperto in
modulo, si parla di reazione negativa, utile quando vogliamo mantenere una quantità costante.

Viceversa quando l’amplificazione ad anello chiuso è maggiore in modulo dell’amplificazione ad anello


aperto si ha una reazione positiva, utile per realizzare delle instabilità:

Applicando una reazione negativa il guadagno ad anello chiuso sicuramente sarà minore del guadagno ad
anello aperto, lo schema ci fa ottenere un guadagno minore di quello ad anello aperto ma il guadagno sarà
molto stabile e riproducibile. Il metodo applicato è quello di prendere un guadagno di uscita in cui:

Se calcoliamo il limite per modulo di A che tende a infinito, si ottiene:

Se sono in un sistema in reazione in cui si verifica questa condizione, ottengo che il guadagno ad anello
chiuso non dipende dai parametri dell’amplificatore ma solo dalla rete di reazione.
Questa situazione è vantaggiosa perché molte volte B è un rapporto di resistenza, quindi l’amplificazione a
ciclo chiuso è uguale a un rapporto tra resistenze e ho quindi un’elevata stabilità in temperatura, se le due
resistenze presentano la stessa dipendenza dalla temperatura.
Inoltre l’amplificazione non dipende dalle caratteristiche del nostro amplificatore, quindi anche se
sostituisco l’amplificatore con un modello simile tale per cui ancora il modulo di BA >> 1, l’amplificazione
non cambia di valore, è indipendente anche dalle caratteristiche specifiche dell’amplificatore stesso.

Effetto della reazione sulle impedenze di ingresso e uscita


La reazione va a modificare le impedenze di ingresso e di uscita del sistema.
Svolgiamo i calcoli in modo dettagliato soltanto per il caso della valutazione dell’impedenza di uscita in
presenza di reazione di tensione, mentre per gli altri casi daremo semplicemente una breve giustificazione,
seguita dal risultato. Per la reazione di tensione, prendiamo in esame la parte di circuito di uscita, dove la
rete B rappresenta la rete di reazione ed è connessa in modo da prelevare la tensione di uscita.

Il guadagno A viene schematizzato con un generatore di tensione controllato da Xi, segnale di ingresso con
in serie la resistenza di uscita dell’amplificatore ad anello aperto.
Vediamo cosa accade alla resistenza del mio sistema in ciclo chiuso quando è presente la rete di reazione.
Per valutare la resistenza di uscita, potrei prendere il generatore di prova in uscita, per esempio VP e
valutare la corrente IP erogata, per farne poi il rapporto.
In realtà non applichiamo questo metodo, ma possiamo calcolare l’impedenza di uscita con un metodo
alternativo. La resistenza di uscita di un bipolo a due terminali può essere valutata può essere ottenuta
semplicemente come rapporto della tensione a vuoto (misurata senza alcun carico in uscita) e la corrente di
corto circuito (misurata con carico di valore nullo).
Ciò deriva dagli equivalenti di Thevenin e Norton e dal fatto che devono essere uguali tra di loro, usiamo ciò
perché molto conveniente qui.

Determiniamo questi due valori.


Partiamo dalla tensione a vuoto. Se non collego nessun carico in uscita la tensione che misuro all’uscita del
sistema è pari a:

L’abbiamo calcolata prima.


Vado adesso a cortocircuitare la porta di uscita (V0 = 0) in modo da poter calcolare la corrente di
cortocircuito. In assenza di una tensione di uscita, dal momento che faccio un prelievo di tensione, la rete B
preleva V0 = 0, quindi la rete di reazione non produrrà nessun segnale di uscita, Xf = 0, quindi il nostro
sistema è un sistema privo di reazione. Il sistema è ad anello aperto.
La corrente di uscita sarà quindi data dal rapporto tra tensione e resistenza:

ma nel caso in cui Xf = 0 Xi = Xs.


Ho quindi espresso anche la corrente d cortocircuito in funzione del segnale di ingresso e facendo il
rapporto tra le due quantità, ottengo:

La reazione mi ha modificato la resistenza di uscita in quanto la resistenza di uscita che vedo dal sistema
reazionato è pari alla resistenza di uscita che vedo quando la reazione non è presente (R0), diviso il fattore
1-BA.
Quindi difronte a una reazione negativa con modulo di BA >> 1, un prelievo della tensione di uscita che
viene riportata in ingresso determina una diminuzione considerevole della resistenza di uscita.
Torna da un punto di vista intuitivo, e faccio un prelievo in tensione con una reazione negativa alla fine
voglio stabilizzare la tensione di uscita e quel componente circuitale che ha una tensione di uscita costante
è un generatore di tensione ideale con una resistenza interna nulla. Ecco che prelevare la tensione di uscita
con una reazione negativa significa di fatto cercare di rendere la tensione di uscita costante e quindi
trasformiamo il nostro sistema in una sorta di generatore di tensione ideale con una resistenza interna
praticamente nulla e in effetti l’effetto che ha sulla resistenza di uscita è di diminuirla del fattore 1-BA.
In sostanza, quindi, le resistenze di ingresso e di uscita vengono modificate dalla reazione di un fattore (a
moltiplicare o a dividere, a seconda del tipo di reazione) 1 − BA, che può risultare anche molto elevato. E’
pertanto possibile, utilizzando in modo opportuno la reazione e avendo a disposizione amplificatori con
guadagno sufficientemente elevato, ottenere pressochè ogni valore desiderato di resistenza di ingresso e di
uscita.

Amplificatori differenziali
L’amplificatore operazionale appartiene alla famiglia degli amplificatori differenziali, amplificatori la cui
tensione di uscita è proporzionale alla differenza tra i due segnali applicati alle due porte di ingresso.
Abbiamo due porte di ingresso, una porta di uscita, e abbiamo un terminale di riferimento a comune sia tra
le porte di ingresso e quella di uscita. Le tensioni presenti sulla porta 1, 2 e quella sulla porta di uscita sono
tensioni riferite come differenze di potenziale tra queste porte e un terminale di riferimento.
Indichiamo con v1 la differenza di potenziale tra porta 1 e il potenziale di riferimento e con v2 la differenza
di potenziale tra la porta 2 e il terminale di riferimento.
Per un amplificatore differenziale ideale vale la relazione Vu = Ad(v1 − v2), dove Ad è il cosiddetto guadagno
differenziale e v1 e v2 sono le tensioni sui due ingressi.
L’amplificatore differenziale fornisce una tensione di uscita proporzionale alla differenza tra i segnali
applicati ai suoi due ingressi.
Nel caso in cui due segnali di ingresso sono idealmente uguali, fornisce quindi una tensione di uscita nulla.

L’utilizzo di un amplificatore differenziale risulta particolarmente utile in quei casi in cui sono presenti
prevalentemente disturbi a modo comune, come quelli, per esempio, indotti da accoppiamenti
elettrostatici tra i cavi di rete a 50 Hz e le linee microfoniche.
Durante l’amplificazione del segnale del microfono è molto comune che i fili di quest’ultimo si accoppino
attraverso delle capacità con gli alimentatori, in particolare con il conduttore di fase.
Il conduttore di fase rappresenta la sorgente dei disturbi a carattere elettrostatico ed è accoppiato ai due
conduttori della linea microfonica da capacità praticamente uguali.
I condensatori in figura schematizzano l’accoppiamento capacitivo che avviene tra fili che scorrono vicini tra
di loro e quindi c’è un disturbo che può passare da una parte all’altra dei fili stessi.

E’ tipico il caso in cui le linee di alimentazione che tutti abbiamo (220V e 50Hz) se vicino a questi fili
scorrono anche quelli del microfono è facile che vi siano dei disturbi che vengono ad esso accoppiati
attraverso delle capacità parassite.
L’amplificatore differenziale ha la proprietà di fare in modo che tutti i segnali che risultano essere uguali sui
due fili vengano cancellati. Se lo stesso segnale di disturbo vien applicato a entrambi i fili, dal momento che
l’amplificazione differenziale fa la differenza dei segnali, va a eliminare tutti quei disturbi che sono uguali sui
due fili stessi e va ad amplificare solo la differenza.
Tutti i disturbi uguali sui due fili vengono automaticamente eliminati, lo stesso disturbo viene iniettato su
tutti e due i conduttori: si tratta perciò di un disturbo a modo comune, che può essere eliminato utilizzando
un amplificatore differenziale come quello indicato.
Dato il nostro amplificatore differenziale, si definisce segnale a modo differenziale la differenza tra il
segnale v1 e il segnale v2:

Si indica con segnale a modo comune il segnale ottenuto facendo la semisomma dei segnali di ingresso:

Se due segnali sono uguali abbiamo quindi un segnale a modo differenziale nullo e un segnale a modo
comune uguale ai due segnali.
E’ possibile esprimere v1 e v2 in funzione di vd e vc utilizzando le seguenti relazioni ottenute sommando e
sottraendo tra loro le due equazioni utilizzate per definire vd e vc:

Queste formule ci dicono che il comportamento dell’amplificatore differenziale lo posso studiare o in


funzione di v1 e v2 oppure tramite vd e vc.
La tensione vu di uscita può essere scritta come combinazione lineare delle due tensioni di ingresso:

Supponiamo adesso di conoscere dell’amplificatore anche i guadagni A1 e A2:

Posso definire dei guadagni relativi ai segnali vd e vc:

Questo valutato quando vc = 0, quindi quando è presente solo la tensione differenziale.


Si definisce invece:

valutato quando la tensione a modo differenziale vd è nulla.


Una descrizione dell’amplificatore differenziale tramite v1, v2, A1 e A2 può essere fatta analogamente
tramite vd, vc, Ad e Ac.
Quando si parla di guadagno con queste grandezze, tipicamente si intende il guadagno a modo
differenziale.
Un altro parametro che si trova tipicamente è:
Un amplificatore differenziale ideale è un amplificatore che amplifica soltanto la differenza di due segnali,
quindi nel nostro amplificatore l’amplificazione di modo comune è nulla e quindi:

Nel caso reale invece, avremo che l’amplificazione a modo comune é piccola e quindi:

CMRR è un fattore di merito perché più è grande il CMRR migliore è la qualità dell’amplificatore
differenziale.
Posso determinare anche la tensione di uscita se conosco A1 e A2:

Posso ottenere sostituendo al posto di v1 e v2 i corrispondenti valori di vd e vc:

ottenendo così così una relazione tra i guadagni a modo differenziale e a modo comune e quelli rispetto
all’uno e all’altro ingresso dell’amplificatore.
Il primo termine che moltiplica vd è infatti il nostro guadagno a modo differenziale, invece il secondo è il
guadagno a modo comune.
In funzione del guadagno a modo differenziale, del segnale a modo differenziale, del guadagno a modo
comune e del segnale a modo comune posso quindi ottenere vu.
Se conosco A1 e A2 quindi posso facilmente calcolare l’amplificazione differenziale e l’amplificazione a
modo comune come:

E di conseguenza:

Un amplificatore differenziale abbiamo la possibilità di studiarlo in due modi diversi.


In un caso vedendo l’effetto di ciascuna porta di ingresso sull’uscita (A1 e A2) ma anche determinando i
parametri di un’altra descrizione fatta in termini di segnale a modo comune, segnale a modo differenziale,
guadagno a modo comune e guadagno a modo differenziale.
Descrivendo in questi termini un amplificatore differenziale ideale ha un guadagno a modo comune uguale
a 0 e un guadagno a modo differenziale diverso da 0, che vorrò avere poi in modo predeterminato.

Amplificatori operazionali
Definita la famiglia degli amplificatori differenziali, al suo interno troviamo una categoria di amplificatori
importanti, gli amplificatori operazionali (“op amp” o semplicemente “operazionale”), molto utilizzati per
effettuare operazioni sui segnali analogici.
L’amplificatore differenziale presenta 3 caratteristiche principali:
- risulta essere un amplificatore differenziale, la cui tensione di uscita è proporzionale alla
differenza dei segnali di ingresso
- presenta un guadagno a modo differenziale molto elevato nel caso reale, mentre nel caso
ideale il guadagno a modo differenziale è infinito
- è accoppiato in continua dal punto di vista frequenziale. La banda parte da frequenza nulla,
ho quindi una risposta in frequenza piatta a partire da f = 0 fino al limite superiore di banda
dopo il quale il guadagno inizia a diminuire
Il nome “operazionale” deriva dal fatto che esso venne inizialmente concepito per la realizzazione di
operazioni di somma e sottrazione tra segnali all’interno di circuiti più complessi.
I primi amplificatori operazionali erano costruiti utilizzando componenti discreti. Intorno alla metà degli
anni ’60 fu prodotto il primo operazionale su circuito integrato: il uA 709.
Questi vengono spesso utilizzati per realizzare filtri attivi, per effettuare operazioni lineari ma anche non
lineari sui segnali, fare degli oscillatori e quindi sono componenti molto versatili.
Il simbolo circuitale dell’amplificatore operazionale consiste in un triangolo con un simbolo “+” in
corrispondenza dell’ingresso non invertente e un simbolo “-” in corrispondenza di quello invertente.

Questo viene spesso usato anche per indicare un amplificatore differenziale generico ma se non
esplicitamente detto si riferisce all’amplificatore operazionale.
Sono indicati i due ingressi, non interscambiabili, uno indicato con la polarità positiva e uno con polarità
negativa, rispettivamente non invertente e invertente e la tensione di uscita è proporzionale alla differenza
tra l’ingresso non invertente e l’ingresso invertente.
Nella realtà il simbolo circuitale è molto diverso, presenta un numero di contatti maggiore dei 3 soli indicati.
Non dobbiamo infatti dimenticarci che l’amplificatore operazionale al suo interno è realizzato mettendo
insieme un certo numero di transistori elementari (BJT o MOSFET a seconda se l’amplificatore opera a
transistore BJT o a transistore MOSFET). All’interno di essi ho quindi degli elementi attivi che per funzionare
hanno bisogno di un’alimentazione, e tutto ciò lo troviamo all’interno di esso.
Non dobbiamo quindi dimenticarci che al suo interno tra i numerosi terminali vi sono quelli di
alimentazione (V+ e V- ai quali dobbiamo collegare l’alimentazione, che molto speso è duale, perchè
collego due batterie uguali e opposte):
Posso avere per esempio + 12V per V+ e -12V per V-, oppure posso avere anche un’alimentazione non
duale ma singola in cui un terminale viene posto a un'unica batteria collegato tra il + e il -.
Il mio terminale di riferimento delle tensioni è il cosiddetto baricentro tra le batterie e sarà il terminale di
riferimento per tutte le tensioni. Quindi andrebbe disegnato in realtà almeno a 5 terminali:

Abbiamo poi realtà altri terminali, per esempio quello che ci permette di annullare l’offset ma d’ora in poi
per semplicità non andremo a indicare i collegamenti con l’alimentazione ma dobbiamo ricordarci della loro
presenza.
Il circuito equivalente per le variazioni risulta il seguente:

Nel caso ideale è un amplificatore differenziale che non ha nessun guadagno di modo comune e quindi dal
punto di vista delle variazioni può essere identificato così.
La porta + e la porta – di ingresso sono collegate al loro interno tramite una resistenza di ingresso, e la
tensione di ingresso è la differenza di tensione tra il terminale + e il terminale -.
La tensione di uscita è invece riferita rispetto al terminale di riferimento che è quello ottenuto dal
baricentro delle alimentazioni.
Ho poi un generatore di tensione controllato in tensione il cui valore è proporzionale alla differenza di
tensione tra + e – tramite un parametro Avol, guadagno di tensione con ol che sta per open loop ad anello
aperto perché l’operazionale viene spesso utilizzato all’interno dei sistemi a reazione e si vuole distinguere
l’amplificazione propria, che è Avol da quella che prima indicavamo con Ad.
La nostra vin è quella che prima indicavamo con vd.
Ro è invece la resistenza di uscita del nostro amplificatore operazionale.
La tensione di uscita viene invece presa tra vout e il baricentro delle alimentazioni:

I terminali di ingresso invece non hanno un collegamento diretto col terminale di riferimento.
Prendiamo le caratteristiche di un operazionale ideale e confrontiamole con quelle di un operazionale
reale, il μA 741 che è caratterizzato dalle seguenti caratteristiche.

Per quanto riguarda l’amplificazione ad anello aperto, quindi la nostra amplificazione differenziale, nel caso
di operazionale ideale è infinita, ho quindi un amplificazione differenziale a guadagno infinito nel caso
ideale, mentre il guadagno differenziale è elevatissimo nel caso reale.
Questa è una caratteristica peculiare di tutti gli operazionali.
La resistenza di ingresso è invece infinita nel caso ideale, mentre nel caso reale è molto elevata-
La resistenza di uscita è nulla nel caso ideale, mentre nel caso reale è piccola e dell’ordine di qualche decina
di ohm. Queste sono le tre caratteristiche di base relative al nostro circuito equivalente visto prima.
Altri parametri di merito sono la banda, ovvero per quali frequenze posso considerare il guadagno
differenziale pari a infinito e abbiamo nel caso ideale a qualunque frequenza, tra l’altro è il parametro
meno rispettato nella realtà, infatti nella realtà la frequenza è molto piccola (4-8Hz).
Abbiamo quindi degli operazionali che fino a qualche Hz hanno un guadagno di 10^5 che poi decrementa di
circa 20db/dec, con una fdt a polo dominante.
Un parametro che si trova molto spesso non è tanto la banda ma il prodotto tra il guadagno e la banda, PGB
grandezza che nel caso di sistemi a polo dominante rimane costante anche nei sistemi in reazione, e si ha
che nel caso ideale è infinito mentre in quello reale è molto elevato, infatti è vero che la banda è piccola ma
il guadagno è molto grande.
Il CMRR nel caso ideale è infinito perché ha Ad -> infinito ma anche perché Ac = 0. Nel caso reale non è così
ma è molto elevata, e molto spesso viene infatti riportata in db.
Si hanno dei CMRR molto elevati di un centinaio di db perché abbiamo un elevato guadagno differenziale,
un guadagno a modo comune piccolo e ciò porta ad avere un CMRR grande.
Più alto è il CMRR e più l’operazionale reale si avvicina a quello ideale.

Vediamo com’è fatta la caratteristica di ingresso/uscita dell’amplificatore operazionale.


Valutiamo quello reale, se Ad = 10^5 ciò significa che se ho un amplificatore operazionale reale in cui
applico una tensione differenziale di ingresso pari a 1V ottengo in uscita 10^5V?
No, non dobbiamo dimenticarci che l’operazionale per funzionare deve essere collegato ad un
alimentazione per cui il valore massimo della tensione di uscita è pari alla tensione di alimentazione, o un
po’ più piccola.
Si ha quindi un’elevata amplificazione, ma poiché è collegato ad una tensione di alimentazione, il valore
massimo e minimo della tensione che può fornire in uscita sono fissati dall0alimentazione che si utilizza per
alimentarlo. Ho quindi delle caratteristiche di questo tipo:

Notiamo che la scala del segnale di ingresso è in mV mentre quella del segnale di uscita è in V.
Vo viene quindi fissata ad un massimo e un minimo della tensione di alimentazione, si dice che
l’amplificatore operazionale satura.
Qui il termine saturazione assume un significato diverso nel senso che indica che il valore massimo e quello
minimo sono fissati da alimentazione.
Il nostro amplificatore operazione non può fornire in uscita più di questa tensione. Quindi quando viene
detto che amplifica 10^5 se in ingresso presenta 1V presenterà in uscita il valore di saturazione
determinato dalla amplificazione.

In figura vediamo in particolare la caratteristica di riferimento di un operazionale con Avol = 10^4, livelli di
saturazione di +-10V e tensione di offset di 5mV.
Ottengo che il mio range di linearità in cui ottengo una tensione di uscita proporzionale alla tensione
differenziale di ingresso con un range molto piccolo, ho infatti solo un intervallo di 2mV, infatti si ottiene
facendo 20 (che ho in verticale) / 10^4.
Quindi fornisce una tensione di uscita proporzionale alla tensione di ingresso soltanto se la tensione di
ingresso è compresa in un’intervallino molto stretto.
E se il guadagno diventa 10^5, l’ intervallo si riduce ancora di più.
Noto quindi che il range di linearità in cui l’operazionale è in grado di lavorare è molto stretto.
Inoltre sono affetti da offset, il che significa che l’uscita è non nulla quando la tensione di ingresso è nulla ,
ma per esempio qui è nulla quando vi di ingresso è pari a -5mv, effetto che non tratteremo, infatti ci sono
apposta dei piedini per correggere questo comportamento applicando delle tensioni.
Il range di linearità è molto piccolo per cui se prendiamo un amplificatore operazionale a loop aperto dato
l’elevato guadagno che possiede è sufficiente una piccola variazione ai terminali di ingresso per farlo
saturare.
E’ quindi sufficiente solo il rumore presente nel circuito per esempio, perché l’intervallo si riduce ai valori
tipici del rumore del circuito stesso, quindi l’operazionale se viene usato a loop aperto lo trovo sempre
saturo o al valore alto o al valore basso ed ecco perché l’amplificatore operazionale viene utilizzato quasi
esclusivamente in sistemi in reazione che fanno sì da mantenere il funzionamento dell’operazionale
all’interno della sua regione lineare in cui è in grado di fornire una proporzionalità tra ingresso e uscita.
Dopodichè non abbiamo più un legame, l’uscita satura a 10V qualunque sia la tensione di ingresso.
In zona di saturazione quindi l’operazionale non risponde più ai segnali di ingresso ma è saturo e quindi se
lo voglio mantenere con un’uscita proporzionale alla tensione di ingresso dovrò attuare degli accorgimenti
tra cui inserirlo in una reazione che mantiene la tensione di ingresso ai suoi capi piccola in modo tale da
mantenerlo in regione lineare.
Esistono anche dei circuiti in cui si vuole che l’operazionale sia in saturazione, come i circuiti di
comparazione.
Metodo del corto circuito virtuale
Vediamo un metodo che permette di studiare circuiti con amplificatori operazionali, un metodo
approssimato.
Il metodo si basa sul fatto che se ipotizziamo che il nostro amplificatore si trovi a funzionare in regione
lineare, al suo interno l’amplificatore operazionale ha una scala di ingresso in mv e una di uscita V, dovuto
al fatto che l’amplificazione è molto elevata, quindi posso avere una tensione di uscita finita con una
tensione di ingresso molto piccola.
Nel metodo del corto circuito virtuale il fatto di avere una vo limitata (limitata dalla alimentazione, è infatti
al più pari alla tensione di alimentazione) e un’amplificazione a loop aperto molto elevata indica che la
tensione di ingresso è molto piccola, tanto piccola che in alcuni casi si può prendere nulla:

Si fa quindi l’ipotesi che quando l’operazionale opera nella sua zona lineare la differenza di tensione tra
terminale invertente e non invertente è trascurabile:

Quindi il potenziale del terminale invertente è circa uguale al potenziale del terminale non invertente.
Tra questi due terminali dobbiamo ricordare che c’è la Rin, e solo già con questa ipotesi che ci dice che vin è
piccola e la posso prendere circa uguale a 0, sussegue una conseguenza: se stiamo ipotizzando che i due
terminali sono allo stesso potenziale, vuol dire che nella resistenza Rin non scorre corrente:

Quindi ciò implica che le due correnti i+, assorbita dal terminale +, e i-, assorbita dal terminale –:

Il metodo ci dice quindi che in opportune condizioni il comportamento del mio operazionale lo posso
studiare ipotizzando che tra i due terminali non ci sia differenza di potenziale e che le correnti assorbite dai
due terminali risultano essere entrambe nulle.
E’ detto metodo del cortocircuito perché se due terminali sono allo stesso potenziale è come se fossero
cortocircuitati tra di loro, ma è virtuale perchè non c’è un vero e proprio cortocircuito ma anche il
cortocircuito è particolare perché non ci scorre corrente.
Questo metodo è applicabile se sono soddisfatte le seguenti condizioni:
1. L’amplificatore operazionale non è saturo, ovvero funziona in zona lineare. Deve essere nella zona
di funzionamento in cui la grandezza di uscita è collegata alla grandezza di ingresso, altrimenti non
è più vero che c’è un legame dato da Avol, e non avrei più controllo sulla tensione di uscita dalla
tensione di ingresso.
2. Il modulo del guadagno di anello (BA) della rete in reazione nella quale l’operazionale è inserito è
molto maggiore di 1.
Se sono in queste due condizioni allora poso applicare il metodo del cortocircuito virtuale, noi lo
applicheremo sempre ma andremo tute le volte a utilizzarlo in modo tale da fare una trattazione molto
semplificata dei circuiti che andremo a utilizzare.

Amplificatore invertente
Trattiamo uno schema in cui vi è l’applicazione dell’operazionale.
Prendiamo il nostro amplificatore operazionale e realizziamo una configurazione con il terminale non
invertente collegato a GND, (all’interno non hanno un collegamento al terminale di riferimento ma lo
possiamo imporre dall’esterno), e abbiamo due resistenze, una usata per collegare il generatore di segnale
al terminale non invertente dell’operazionale, l’altra che collega il terminale invertente dell’operazionale
con l’uscita. E’ evidente che ho un sistema di reazione, la tensione di uscita viene prelevata tramite R2 e
riportata in ingresso confrontandola con la tensione di ingresso.

Troviamo il legame tra Vs e Vu dimostrando che è un amplificatore invertente.


Utilizziamo il metodo del cortocircuito virtuale, che ci dice che la tensione sul + è uguale a quella sul –:

E’ come se avessi collegato al terminale di riferimento anche il terminale v-.


Dopodichè l’altra ipotesi del cortocircuito virtuale ci dice:

Abbiamo che anche che i+ e i- sono nulle e quindi se faccio il bilancio delle correnti al nodo invertente:

Le due correnti che scorrono nelle resistenze sono uguali.


IR1 quanto vale? Se in v- ho 0, allora:

Quando vale vu?


E’ la tensione tra il terminale di uscita e quello di riferimento, quindi anche pari alla caduta di tensione su
R1 nel verso indicato in figura:

Percorrendo la maglia:

ma v- = 0 quindi:

IR2 per quel che ho trovato prima è pari a IR1, ma posso esprimere IR1 e quindi:

Quindi il guadagno della nostra tensione:

Ecco che quindi il circuito mostrato in figura è un metodo semplice che permette di realizzare un
amplificatore invertente di valore pari al rapporto tra due resistenze esterne aggiunte, questo è vero fino a
quando BA >> 1, ovvero fino a quando l’amplificatore ha un guadagno molto elevato e quindi non è
necessario conoscere precisamente quanto vale l’amplificazione dell’amplificatore operazionale, ma
l’importante è che BA >> 1.
Qualunque sia l’operazionale che inserisco l‘amplificazione è data dal rapporto tra due resistenze, è quindi
stabile ed indipendente dalle caratteristiche.
Il guadagno è quindi più piccolo di 10^4, l’amplificatore operazionale ideale ha Avol -> inf ed è quindi
sicuramente molto maggiore dell’A che otteniamo ma anche se rinuncio ad aver un’amplificazione enorme,
questa è riproducibile e indipendente dalle caratteristiche dell’operazionale e dalle variazioni di
temperatura.
Non dobbiamo dimenticarci che ci sono i due terminali:

Calcoliamo la Rout, resistenza che vedo guardando l’uscita del mio sistema reazionato.
La nostra Ro è piccola, la resistenza di uscita del nostro amplificatore operazionale nel caso ideale è nulla,
mentre nel caso reale è dell’ordine di una decina di Ohm.
Quando applichiamo una reazione e quando questa consiste nel fare un prelievo della tensione di uscita e
riportarla in ingresso, otteniamo che:

La Ro è molto piccola, mentre poi viene divisa per il fattore BA che è molto maggiore di 1, A è dell’ordine
dell’amplificatore Avol dell’operazionale, tra cui siamo nelle condizioni in cui è applicabile il cortocircuito
virtuale. Quindi succede che la resistenza di uscita del nostro sistema in reazione:

Per la resistenza di ingresso, valutiamo la resistenza vista dal nostro generatore di tensione. Dobbiamo
valutare la tensione del generatore e la corrente erogata. Se vale il cortocircuito virtuale:

L’aver collegato R2 ha significato riportare in ingresso un segnale che è proporzionale alla tensione di uscita
Vu, infatti Vu tramite un partitore viene riportata sulla V-:
Amplificatore non invertente
Si può realizzare un amplificatore non invertente basato su un operazionale con piccole modifiche rispetto
allo schema già visto per l’amplificatore invertente:

In questa configurazione notiamo che:

Vin = V+ - V- e quindi ho la tensione Vs meno una partizione della tensione di uscita, che viene riportata in
ingresso. Con l’ipotesi di cortocircuito virtuale:

La corrente IR1 quindi:

Mentre la tensione V2:

Ma IR2 = IR1 e quindi:


Quindi:

Ho ottenuto un’amplificazione non invertente.


Avendo collegato il generatore di segnale al terminale non invertente e avendo configurato la reazione così
ottengo un’amplificazione non negativa proporzionale sempre alle due resistenze.
Dal punto di vista dell’uscita non è cambiato niente, la R2 mi riporta in ingresso una partizione della
tensione di uscita:

Posso quindi dire che la Rof sarà data dalla resistenza interna dell’operazionale diviso 1 – BA e quindi
essendo Ro piccolo e BA molto grande, anche in questo caso ho una resistenza tendente a 0:

Per quanto riguarda la resistenza di ingresso questa coincide con la resistenza che ottengo guardando il
terminale non invertente del mio operazionale:

ma abbiamo l’ipotesi di i+ = 0 e quindi ciò comporta che la is, corrente erogata dal generatore vs, è nulla.
Quindi la resistenza vista dal generatore Vs è molto grande invece nel caso reale, e infinita nel caso ideale:

La diversità l’abbiamo nella resistenza di ingresso che ora tende a infinito.


Se poniamo R2 = 0, sostituendola con un corto circuito, il guadagno dell’amplificatore non invertente
diventa unitario. In tal caso abbiamo un amplificatore con guadagno pari all’unità, impedenza di ingresso
pressochè infinita e impedenza di uscita pressoché nulla. Questo può essere utile ogni volta che risulta
necessario collegare un circuito con uscita ad alta impedenza, o comunque non in grado di fornire una
corrente significativa, a un carico a bassa impedenza: è per tale motivo che questo amplificatore prende il
nome di “buffer”. Notiamo che se R2 è nulla R1 non svolge più alcuna funzione (qualunque sia la corrente in
R1 la caduta di tensione su R2 è comunque nulla) e può quindi essere eliminata, ottenendo lo schema
tipico del buffer.
Nel caso in cui R2 = 0 riporto in ingresso tutta la Vu e non solo una partizione di essa, ottengo quindi un
cortocircuito reale tra la Vu e la V-.

Ho quindi un operazionale con guadagno che tende a infinito, una tensione di uscita prelevata e riportata
sull’ingresso invertente, mentre sull’ingresso non invertente ci applico il segnale.

Ma ponendo:

Se vale il cortocircuito virtuale:

dove il circa uguale è tanto più verificato quando il guadagno del mio operazionale a loop aperto è alto.
Abbiamo realizzato un circuito con un guadagno unitario, una resistenza di uscita nulla e una resistenza di
ingresso idealmente infinita.
La resistenza di uscita è Ro/A è quella vista dal morsetto di uscita dal circuito infatti, mentre la resistenza di
ingresso è infinita ed è quella vista dal generatore.
Un circuito con queste caratteristiche : guadagno unitario, resistenza di uscita bassa e resistenza di ingresso
infinita viene chiamato circuito buffer.
Una delle applicazioni immediate che vengono usate da un circuito buffer è la seguente.
Supponiamo di essere nel caso in cui abbiamo un generatore di segnale con resistenza interna non
trascurabile (dell’ordine del KOhm), ovviamente Vs e RS posso anche essere l’equivalente thevenin di
qualcosa di più complicato, e vogliamo trasferire il segnale su un carico piccolo dell’ordine di 10Ohm,
ordine di grandezza tipico per esempio delle casse degli altoparlanti.

Mi trovo nella necessità di trasferire un segnale dal generatore di segnale a un carico di valore piccolo.
Se effettuo in modo diretto il collegamento collegando il generatore di segnale alla resistenza piccola:

La resistenza che trovo sul carico Vo sarà una partizione della Vs:

Ciò significa che ho applicato il mio segnale, tramite magari degli amplificatori multistadio ottenendo un
amplificazione elevata, ma facendo questo collegamento perdo un fattore 100 perché la resistenza di uscita
è molto più grande della resistenza del carico.
Posso riuscire a trasferire in modo corretto questa tensione di segnale Vs al carico senza perdite? Riesco a
farlo con un circuito buffer.
Se applico il segnale al mio terminale non invertente del buffer, la resistenza che si vede Rif -> inf e quindi
se valuto la corrente is, questa è uguale a 0 e quindi su Rs non scorre corrente e di conseguenza V+ = Vs.
Il mio generatore di segnale Vs lo ritrovo di un valore esattamente uguale ai capi del mio V+, il metodo del
cortocircuito virtuale mi dice anche che Vo = Vs e quindi ottengo:

Ai capi del mio carico ho trasferito esattamente la tensione di ingresso senza applicare nessun tipo di
attenuazione. Posso avere Vo = Vs perché in uscita ho una resistenza di uscita nulla.
E’ importante avere una resistenza di uscita nulla perché schematizzando l’uscita in questo modo:

Il fatto che Rof è uguale a 0 significa che tutta la tensione presente sul terminale la trasferisco
automaticamente su RL e quindi posso affermare che la tensione di uscita che ho ottenuto è Vo = Vs.
Ho ottenuto quindi un circuito buffer che mi separa l’ingresso dall’uscita.
Il buffer mette in comunicazione l’ingresso con l’uscita senza che vi siano interferenze tra la resistenza di
uscita e quella di ingresso e viceversa, lato carico fa vedere una resistenza nulla mentre lato ingresso fa
vedere una resistenza infinita.
Amplificatore differenziale (amplificatore di differenza)
Combinando la struttura di un amplificatore invertente con quella di un non invertente si può ottenere un
amplificatore differenziale caratterizzato da un guadagno preciso, che dipende soltanto da un rapporto di
resistenze, con una scelta opportuna delle resistenze. Si noti che anche un amplificatore operazionale preso
da solo, non reazionato, è un amplificatore differenziale, ma non può, nella maggior parte dei casi, essere
utilizzato direttamente come tale, a causa dell’eccessivo e non esattamente noto guadagno.
Se compriamo un certo numero di operazionali uguali nominalmente e se si misura il gudagno in loop
aperto questo cambia notevolmente tra un operazionale e l’altro.
Se uso un operazionale a loop aperto accade che il guadagno è così elevato che è difficile mantenere il
funzionamento del dispositivo in zona lineare e quindi l’operazionale diventa immediatamnete saturo,
positivo o negativo.
Ho quindi la necessità di avere una tensione di uscita Vu che è uguale a K(V2-V1). Voglio avere una
situazione di questo tipo dove è importante conoscere il valore di K, che è la nostra amplificazione
differenziale.
Voglio realizza usando un operazionale un circuito che mi fornisce l’amplificazione della differenza tra due
segnali che sia però predicibile e costante al variare delle caratteristiche dell’operazionale.
Usiamo questa configurazione in cui la reazione viene sempre ottenuta come in precedenza tramite R2
collegata tra l’uscita e V-, poi abbiamo la tensione V1 applicata al terminale invertente tramite R1, mentre
V2 è applicata non direttamente a V+ ma tramite un partitore di resistenze.
Le amplificazioni del modo invertente e non invertente infatti non sono esattamente una l’opposto
dell’altra ma dobbiamo modificare la tensione sul + andando a inserire due resistenze.

Vediamo qual’è la scelta di R1, R2 R3 e R4 che consente di avere una situazione di questo tipo, un valore
costante K che moltiplica V2 – V1.
Andiamo a studiare il circuito usando il metodo del cortocircuito virtuale e visto che tutto si comporta in
modo lineare posso usare il principio sovrapposizione degli effetti.
Determino l’effetto che hanno V1 e V2 sull’uscita separatamente e poi sommo i contributi.
Partiamo dal caso in cui:
V+ è collegata a due resistenze in parallelo ma non ho nessun tipo di segnale e quindi in R3 e R4 non scorre
corrente visto che anche i+ = 0, e si ha quindi V+ = 0.
Ho ottenuto esattamente la configurazione dell’amplificatore invertente.
Sappiamo che la tensione di uscita è semplicemente data da:

Dove vu1 è il contributo del generatore v1 quando v2 è spento.


Vediamo invece il contributo dato da V2 cortocircuitando V1:

Questa confgiurazione è motlo simile a quella dell’amplificatore non invertente. R1 e R2 fanno da reazione
e il segnale è applicato a V+, ma adesso non direttamente ma tramite una partizione.
Sappiamo che i+ = 0 e quindi se indico con i2 la corrente erogata da v2 questa scorrerà in R3 e in R4, dal
momento che i+ = 0, quindi V+ valrà:

Perché ho semplicemente scritto la V+, differenza di potenziale ai capi della resistenza R4.
Quindi a questo punto se considero questa tensione come la mia Vs, la mia configurazione è diventata
esattamente uguale alla configurazione non invertente dove stavolta il mio Vs non è V2 ma questa
partizione. Quindi:
DI fatto è la configurazione non invertente con la differenza che il mio segnale non è applicato direttamente
sul + ma è applicato tramite un partitore. A questo punto ho trovato l’uscita Vu dovuta a V1 e V2 e metto
insieme i risultati:

Abbiamo un termine negativo dovuto alla parte invertente e un termine positivo dovuto alla parte non
invertente. Vediamo se riusciamo a trasformare questa espressione per ottenere il nostro scopo.

Il fatto che abbiamo un segno positivo e negativo ci di ce che siamo sulla strada che ci permette di ottenere
una situazione come quella che desideriamo.
Deve però verificarsi che:

Se voglio realizzare un amplificatore che mi amplifica la differenza tra due segnali devo avere che quando
ho un segnale solo di modo comune l’uscita deve essere nulla.
Notiamo che se scelgo a caso i valori di R1, R2, R3 e R4 questa cosa non è verificata ma vedremo che questa
si realizza solo se effettuo una scelta opportuna di R1, R2, R3 e R4. Andiamo a cercare i valori in modo che
la tensione di uscita si annulla quando V1 = V2.
Imponiamo che la tensione di uscita sia nulla nel caso in cui le due tensioni di ingresso siano uguali.

Se impongo che per V1=V2 e diversi da 0 la Vu sia nulla.


Portiamo al primo membro il secondo termine a destra e a secondo membro il primo a sinistra:

Posso semplificare e posso riscrivere:

Ottengo quindi che se R1 e R2 ed R3 e R4 le seleziono in modo tale che:

allora la Vu risulta essere nulla quando V1 = V2.


Il che significa anche che la mia amplificazione di modo comune è uguale a 0 perché si riferisce
all’amplificazione quando è presente solo il segnale di modo comune.
Ho un segnale di modo comune che è proprio uguale a V1 e siccome l’uscita è nulla ciò significa che Ac = 0.

Riprendo l’equazione dell’uscita e sostituisco il termine R4/R3 + R4 e nel caso V1 != V2:

Quindi nel caso in cui R3/R4 = R1/R2:

Mettendo insieme i risultati che abbiamo ottenuto, se faccio questa scelta di resistenze:

Abbiamo ottenuto il coefficiente k che volevamo determinare.


Se faccio questa scelta la mia tensione di uscita sarà proporzionale esclusivamente alla differenza dei due
segnali e ho quindi un’amplificazione differenziale e un’amplificazione a modo comune:

Se inglobo il mio operazionale in una scatola con le 4 resistenze scelte opportunatamente ho realizzato un
nuovo amplificatore differenziale con queste nuove proprietà.
Ci avviciniamo a un amplificatore differenziale ideale.
Vediamo quando vale la resistenza di ingresso vista dall’ingresso 1 valutata quando v2 = 0 (ingresso 2
cortocircuitato):

La resistenza di ingresso Ri2 per il cortocircuito virtuale e per il fatto che V+ = 0 e quindi da lì vedo una
resistenza infinita:
La resistenza di uscita vista dall’uscita dell’amplificatore:

E’ complicato realizzare quella relazione R3/R4 = R1/R2 e quindi nella realtà viene presa una di queste
resistenze come variabile prendendo questa uguaglianza con il circa uguale.

Integratore di Miller
Possiamo utilizzare l’amplificatore operazionale per ottenere un circuito integratore, circuito che fornisce in
uscita l’integrale della tensione di ingresso. Per farlo si utilizza una configurazione invertente, la cui
trattazione resta valida anche nel dominio della variabile s.
Se al posto delle resistenze R2 e R1 in un amplificatore invertente abbiamo due generiche impedenze Z1 e
Z2, la funzione di trasferimento potrà essere espressa come:

Con le due impedenze se nel dominio della variabile s analizzo questo circuito e applicp il metodo del
cortocircuito virtuale e ottengo le stesse conclusioni a cui siamo arrivati nell’amplificatore invertente, dove
si ottiene anche qui, risolvendo:

Se, in particolare, consideriamo il caso Z1 = R, Z2 = 1/(Cs), vale a dire poniamo al posto di R1 una resistenza
R e al posto di Z2 un condensatore C:
La funzione di trasferimento risulterà:

L’antitrasformata di questa fdt:

ricordando che l’antitrasformata di 1/s è l’operazione di integrale.


Abbiamo dimostrato che questo circuito fornisce una tensione di uscita nel tempo da una costante e
l’integrale della tensione di ingresso. Dimostrazione nel dominio della variabile s.
Vediamo se è possibile trattare il circuito nel dominio del tempo. Se applichiamo il metodo del cortocircuito
virtuale:

Abbiamo quindi:

Ma abbiamo anche che:

Quindi:

due conseguenze dirette dell’aver applicato il cortocircuito virtuale.


Per proseguire con la trattazione sappiamo che se indichiamo con ic la corrente che scorre nel
condensatore, in continua non può scorrere corrente nel condensatore mentre in condizioni dinamiche nel
condensatore può scorrere corrente e il legame tra la corrente che scorre nel condensatore e la tensione ai
suoi capi presa con le polarità corrette:
La corrente che sta caricando il nostro condensatore è data da questa relazione.
Posso anche notare che vale il cortocircuito virtuale e quindi il terminale – è come se fosse a GND, quindi
Vu può essere espressa anche in funzione di Vc e mettendo insieme le due relazioni:

Ma sapendo che ic = ir:

Integrando rispetto al tempo:

Ho dimostrato anche nel dominio del tempo quindi che la tensione di uscita sarà pari all’integrale della
tensione di ingresso a meno di alcune costanti.
E’ un circuito non stabile sulla base del criterio BIBO (Bounded Input Bounded Output), applicando un
segnale limitato in ingresso non ottengo un’uscita limitata.
Se applico infatti in ingresso una costante e quindi un segnale limitato l’uscita sarà l’integrale dell’ingresso e
quindi sarà una rampa, diverge nel tempo. Lo notiamo anche dal fatto che la sua fdt ha un polo nell’origine.
Inolte l’offset stesso dell’amplificatore operazionale verrà integrato e quindi dopo un po’ anche con
ingresso nullo l’uscita si satura.
Questo circuito presenta poi anche una resistenza in parallelo al condensatore, e questa modifica rende il
circuito molto più stabile che risulta un buon integratore solo in un certo range di frequenze.
E’ anche possibile ottenere, scambiando tra loro il condensatore e la resistenza, un circuito derivatore, con
funzione di trasferimento A = −RCs, ma questo non è praticamente mai usato, a causa dell’estrema
sensibilità ai disturbi.

Sommatore
E’ possibile, utilizzando un amplificatore operazionale e alcuni componenti passivi, ottenere un circuito
sommatore la cui uscita è proporzionale alla somma delle tensioni in ingresso. Il più semplice e utilizzato
circuito sommatore è quello invertente di cui riportiamo lo schema per una configurazione a tre ingressi.
Ipotizziamo di collegarli al nodo invertente con la stessa resistenza R e utilizzo la resistenza R’ come
resistenza di reazione:
Possiamo analizzarne il funzionamento utilizzando il metodo del corto circuito virtuale e il principio di
sovrapposizione degli effetti, facendo agire un generatore di ingresso per volta.

Ne discende che la corrente che scorre nelle resistenze grazie al fatto che vale il cortocircuito virtuale:

Le correnti dipendono solo dal corrispondente generatore e sono indipendenti una dall’altra.
Questo è dovuto al fatto che l’amplificatore operazionale grazie alla reazione è in grado di mantenere il
terminale V- circa uguale a 0, frutto che BA >> 1.
prendiamo il bilancio delle correnti al nodo:

Posso dire che la corrente uscente IR’ è uguale alla somma delle correnti entranti:

La Vu sarà data dalla caduta sulla resistenza R’ dovuta al fatto che la tensione C- è circa 0:

Sostituiamo il valore delle correnti:


Ho ottenuto un sistema in grado di amplificarmi la somma dei segnali con un coefficiente pari a -R’/R,
dovuto al fatto che la presenza della reazione con l’operazionale mi consente di mantenere il nodo
invertente a potenziale nullo.
Se scelgo le resistenze non uguali tra di loro, ottengo una tensione di uscita che è una combinazione lineare
delle tensioni di ingresso.

L’operazionale è molto versatile e consente di amplificare in modo invertente, non invertente, amplificare
la differenza, fare l’operazione di integrazione, di derivazione e di somma, oltre ad altre operazioni.

Regolatori di tensione
I regolatori di tensione sono circuiti che permettono di avere una tensione costante.
Abbiamo visto come partendo dalla sorgente di alimentazione sinusoidale possiamo riuscire a raddrizzare la
tensione (portando una tensione a valore medio nullo ad una tensione a valore medio non nullo) e abbiamo
visto come applicando dei condensatori era possibile diminuire il ripple. Questa tipologia di circuiti portava
ad avere però una tensione sempre affetta da un certo ripple nell’intorno del valore costante che volevamo
ottenere.
I circuiti che vedremmo a partire da questa tensione non regolata permettono di avere una tensione
costante che può essere di valore minore o maggiore della tensione di ingresso e anche di segno opposto.
Un regolatore di tensione ideale è un circuito elettronico progettato per fornire una tensione d’uscita Vu
continua predeterminata indipendentemente da:
- corrente erogata al carico (IL), se dobbiamo fornire una tensione al carico il circuito deve essere in
grado di mantenere questa tensione costante al variare del carico stesso e al variare della corrente
erogata.
- variazioni della tensione di rete (Vin), nella catena di trasformazione partiamo dalla tensione di rete
dalla quale compiamo un certo numero di operazioni. La tensione di rete è altamente variabile, e
dobbiamo essere in grado di fornire una tensione costante anche al variare della tensione di
ingresso.
- Temperatura (T), i vari componenti attivi hanno infatti delle caratteristiche che variano con la
temperatura.
Quindi la nostra Vu sarà funzione di;

Quindi una variazione della Vu:

Poiché funzione delle tre grandezze possiamo definire questi tre parametri come segue:

Ro è un parametro che tiene conto della dipendenza della Vu dalla IL.


Ci fornisce informazioni sulla sensibilità della tensione si uscita alle variazioni della corrente fornita al carico
quando le altre due variazioni sono considerate nulle.
Abbiamo anche:
Altro parametro di merito che troviamo nei regolatori di tensione e tiene conto di quanto può variare la
tensione di uscita in funzione delle variazioni che vengono fornite in ingresso al nostro regolatore.

Questo parametro tiene conto della sensibilità della tensione di uscita difronte alle variazioni in
temperatura.
Questi parametri forniscono informazioni sulla bontà di un regolatore di tensione, e saranno tanto più
piccoli quanto la tensione di uscita è insensibile alle variazioni.
Con il diodo zener abbiamo sfruttato il fatto che la caratteristica nella zona di breakdown è molto verticale e
quindi la tensione ai suoi capi resta entro certi limiti costante al variare della corrente che scorre nel diodo
stesso.
Questa soluzione presenta però dei limiti, come i limiti in potenza, quindi in termini di potenza massima che
può dissipare il diodo prima che questo si bruci.

Regolare di tensione lineare serie


Il generatore VDC rappresenta la sorgente di alimentazione, troviamo poi un ponte di Graetz e il generatore
vs che rappresenta le fluttuazioni della tensione in ingresso al regolatore rispetto al valor medio VDC.
Si nota subito che siamo di fronte a un circuito in reazione, in cui la partizione della tensione di uscita
ottenuta tramite il partitore formato da R1 e R2 rappresenta la grandezza di reazione. Tale grandezza di
reazione viene confrontata con una tensione di riferimento ottenuta tramite un diodo zener DZ.

La tensione di ingresso (Vin) nel circuito è non regolata, si può schematizzare come una tensione costante a
cui viene sommata un segnale variabile nel tempo.

All’altro estremo abbiamo il nostro carico RL a cui dobbiamo applicare una Vu costante.
Partiamo da una Vin variabile e vogliamo ottenere in uscita una Vu costante anche al variare dei vari
parametri visti prima.
Tra il carico e l’ingresso è posizionato quello che viene posizionato il transistore di “passo” (che troviamo in
alto), elemento attivo che può essere un BJT o un MOSFET e che è un elemento di potenza, componente
attivo costruito opportunamente in modo tale da fornire correnti elevate, essendo in grado di dissipare
potenze elevate. E’ un elemento fondamentale e dovrà assorbire le variazioni, se percorriamo la maglia
esterna vediamo che la Vu = Vin – VCE, quest’ultima caduta sul transistore di passo.
Questo elemento deve essere pilotato opportunatamente in modo che la caduta ai suoi capi sia regolata in
modo da assorbire le variazioni:

Se la Vin varia, la VCE deve cambiare in modo opportuno in modo tale da mantenere la differenza sempre
al valore costante Vu che voglio ottenere.
Come sappiamo se vogliamo mantenere un parametro circuitale a un valore costante, lo facciamo tramite
un sistema in reazione. Il circuito presenta una reazione ottenuto tramite un amplificatore operazionale, e
l’idea è quella di misurare la tensione di uscita, confrontarla con la tensione di riferimento e in base al
confronto decidere come pilotare il transistore di passo.
Se è maggiore di quella che voglio ottenere dovrò modificare la corrente di base fornita al transistore in
modo che la VCE cambi e porti la Vu al valore iniziale.
Ci serve una reazione di tipo negativo, infatti deve essere tale da mantenere un parametro costante.
Prelevo la tensione di uscita, cosa che viene fatta tramite il partitore costituito da R1 e R2, che preleva una
porzione del segnale di uscita e generano la tensione V-, terminale invertente dell’operazionale, che sarà
quindi uguale a una funzione della Vu.

Sul terminale non invertente viene applicata un tensione di riferimento che nel nostro caso è uguale alla
tensione ai capi del nostro diodo zener, polarizzato tramite la resistenza Rz opportunamente e mantenuto
in zona di breakdown tramite Vin e Rz e così da fornire una tensione di riferimento Vz:

Tramite l’operazionale faccio la differenza tra la tensione di riferimento e una funzione della tensione di
uscita e in funzione del confronto vado a cambiare la corrente IB del transistore così da cambiare la VCE in
modo opportuno, mantenendo così la tensione di uscita costante al variare dei vari parametri.
Se il nostro sistema in reazione è tale da avere:

Posso usare il metodo del ccv e quindi scrivere le due equazioni sopra indicate.
La V- in queste condizioni è pari alla tensione tra R1 e R2 e quindi ho un partitore di tensione:

con l’ipotesi di prendere il terminale in basso come terminale di riferimento:


Sul + ho la tensione riferimento ipotizzando che i+ = 0.
Possiamo ipotizzare con delle variazioni sufficientemente piccole Vz costante e considerarla come tensione
di riferimento. Ponendo V- = V+:

Ciò ci dice che se sono in presenza di un circuito in reazione con modulo di BA >> 1, la tensione di uscita
non dipende dal carico RL, non dipende da Vin e non dipende dalla VCE, ma il suo valore è fissato dalla
nostra tensione di riferimento VZ e da un rapporto di resistenze, costante anche difronte alle variazioni di
temperatura. Sono quindi in grado di ottenere una tensione di uscita costante proporzionale alla tensione
di riferimento Vz che ho scelto.
Dimostriamo che il nostro sistema è in reazione negativa ed è tale da mantenere Vu costante. Andiamo a
prendere la grandezza che voglio mantenere costante e applichiamo una variazione a questo parametro.
Supponiamo che Vin sia aumentata e che Vu volesse anch’essa aumentare, se la tensione di uscita Vu
aumenta allora anche la V- aumenta, perchè data da Vu per il partitore di tensione.
La V+ è invece pari a Vz che possiamo considerare costante.
Allora se la tensione sul terminale + rimane costante e la tensione sul terminale – aumenta, la Vin
diminuisce.
La tensione di ingresso al mio operazionale diminuisce e quindi anche la tensione di uscita diminuisce e
quindi la corrente IB che viene fornita al transistore diminuisce.
Se diminuiamo la corrente di base del transistore bipolare diminuisce anche la corrente di emettitore.
Diminuisce la corrente che viene erogata dal mio transistore bipolare, in particolare quella fornita a RL e
quindi la Vu diminuisce.

L’anello di reazione agisce nel modo corretto. Una causa che ha comportato un aumento della Vu fa sì che il
sistema in reazione agisca in modo opposto alla variazione che l’ha determinato, ciò dimostra come la
reazione sia di tipo negativo. La stessa cosa accade se la tensione di uscita diminuisce.
Il transistore di passo viene opportunamente pilotato dal sistema in reazione in modo tale che la tensione
ai suoi capi venga modificata così da mantenere la Vu costante.
Abbiamo visto come la Vu è costante se BA è in modulo >> 1, e dipende solo dalla tensione di riferimento e
da un rapporto di resistenze. Comprendiamo ora la presenza dei condensatori C1 e C2.
Ragioniamo sull’impedenza di uscita del circuito.
Siamo in un circuito in cui si preleva la tensione di uscita, abbiamo quindi una reazione di tensione, quindi la
sua impedenza di uscita è molto bassa, dell’ordine di pochi mOhm.
Questo perchè la resistenza di uscita del sistema non in reazione, quindi quella che vedo in uscita dal
transistore di passo e quindi la resistenza vista dall’emettitore è bassa e questo perché è data dalla
resistenza vista dalla base/hfe + 1, e viene anche divisa per il fattore 1 – BA.
Anche se avessi un transistore MOSFET è piccola e pari a 1/gm.
E’ molto facile ottenere una resistenza di uscita molto bassa, quindi ci avviciniamo al comportamento di un
generatore ideale di tensione. Posso infatti schematizzarlo come segue applicando poi un carico RL:

Se Rof è circa uguale a 0 ho che il mio generatore di tensione funziona come un generatore di tensione
ideale, cosa vera finchè il modulo di BA è molto piccolo.
Il problema del circuito però è che la condizione attuale, in cui sto considerando il modulo di BA >> 1. è
verificata solo a bassa frequenza.
Il problema dell’alta frequenza è determinato dall’amplificatore operazionale, che ha una banda nel caso
reale abbastanza limitata e quindi all’aumentare della frequenza il guadagno dell’operazionale inizia a
diminuire. Ad alte frequenze |BA| diminuisce. Il regolatore di tensione a bassa frequenza può essere
considerato come un generatore di tensione ideale ma se sono presenti variazioni ad alta frequenza non è
più vero che la Rof può essere considerata praticamente nulla.
Ciò potrebbe darmi problemi quando utilizzo questo regolatore di tensione per alimentare più carichi.
Si parla infatti di accoppiamenti indesiderati ad alta frequenza tra carichi diversi connessi allo stesso
alimentatore e vediamo perché.

Se applico in parallelo due carichi:

A bassa frequenza qualunque sia il numero di carico che applico in parallelo alla tensione di uscita, ciascun
carico avrà una tensione di uscita pari a V0.
Ad alta frequenza invece, Rof sarà != 0 e se uno dei carichi presenta dei disturbi (scorre una corrente con
dei disturbi ad essa sovrapposti, come il rumore elettronico) succede che un disturbo presente su un carico
si va a ripercuotere su tutti gli altri carichi. Infatti la Vu applicata a un carico:

E’ sufficiente che la corrente IL2 abbia dei disturbi in alta frequenza che questo disturbo si vada a
presentare su tutti gli altri carichi.
La tensione Vu applicata in parallelo a tutti i carichi presenta lo stesso disturbo presente in uno solo dei
carichi.
Se la corrente che scorre su un carico è affetta da variazioni ad alta frequenza queste stesse variazioni si
ripercuoteranno su tutti i carichi visto che Rof != 0 e quindi la tensione applicata a questi carichi risente di
queste variazioni. Mentre se Rof fosse nulla questo non accadrebbe.

Dobbiamo garantire che la Rof sia nulla anche ad alta frequenza.


Questa funzione non può essere fornita dalla reazione, ci garantisce solo che ciò sia realizzata a bassa
frequenza.
Mentre ad alta frequenza interveniamo aggiungendo dei condensatori in parallelo all’uscita, infatti ad alta
frequenza sono considerati cortocircuiti e hanno quindi un’impedenza molto piccola.
La necessità di avere almeno un condensatore in parallelo alla resistenza di uscita si ha per garantire che la
resistenza di uscita rimanga piccola anche ad alta frequenza.
Tutti i disturbi ad alta frequenza vengono quindi cortocircuitati dai condensatori.
Ci si potrebbe chiedere perché ve ne sono 2.
Se voglio andare a cortocircuitare i disturbi e lo voglio fare a bassa frequenza, sapendo l’impedenza z di un
condensatore è data da:

Se voglio ottenere che Zc sia circa pari a 0 anche a bassa frequenza (per f piccolo) possiamo prendere un
condensatore con una capacità (C) sufficientemente grande.
Ottengo quindi come risultato il modulo dell’impedenza piccolo anche a bassa frequenza.
Per avere a frequenza bassa Zc piccolo basta prendere un C grande.
I condensatori che mi consentono di avere una capacità grande (dell’ordine del microfarad) sono i
condensatori elettrolitici, che contengono al loro interno un elettrolita e hanno delle capacità di qualche
unità di microfarad e posso quindi utilizzarli in questa applicazione.

Il loro problema è però quello che dati i materiali impiegati per realizzarli, questi condensatori mostrano
una capacità di questo ordine di grandezza a bassa frequenza, ma se aumento la frequenza i condensatori
elettrolitici mostrano un comportamento di tipo induttivo.
Se faccio il grafico del modulo di Zc in funzione della frequenza abbiamo un range in cui questo diminuisce
all’aumentare della frequenza in modo lineare, ma superato un certo range di frequenza l’impedenza
aumenta all’aumentare della frequenza, non funzionando più come una capacità ideale.
Si mette allora in parallelo al condensatore elettrolitico un condensatore ceramico, condensatori che
utilizzano materiali ceramici al loro interno come dielettrico e hanno delle capacità che non sono di grande
entità, sono dell’ordine del nanofarad/picofarad, ma che però hanno la proprietà che ad alta frequenza si
comportano come un condensatore ideale.
Ho quindi degli elettrolitici ideali a bassa frequenza e condensatori ceramici che invece funzionano bene ad
alta frequenza.
Ad alta frequenza non ho bisogno di capacità elevate, infatti la frequenza è elevata dall’equazione vista
prima e allora Zc è comunque piccola, il problema si ha quindi solo quando f è piccola.
La soluzione è quindi di mettere condensatori in parallelo, ottenendo un’impedenza risultante che è la
somma delle impedenze con almeno uno dei due che presenta un’impedenza piccola, l’elettrolitico a bassa
frequenza mentre il ceramico ad alta frequenza (f molto alta).

Un parametro interessante di tutti questi circuiti è la caduta di potenziale minima sul transistore di passo
necessaria affinché questo funzioni correttamente, la indichiamo con Vdropout.
Il transistore deve infatti essere in funzione e quindi devo avere una VCE non nulla i suoi capi nel caso di
BJT, mentre una VS non nulla nel MOSFET.

Regolatori monolitici integrati


Attualmente esistono regolatori serie integrati realizzati su un singolo chip. Tali regolatori sono definiti
“regolatori monolitici” e si presentano con un contenitore con tre terminali (E: entrata, U: uscita, M:
massa). Questi dispositivi sono caratterizzati da una sigla del tipo 78XX, dove le cifre al posto di XX indicano
il valore della tensione di uscita che sono in grado di dare. Per esempio, un 7812 fornisce 12V, mentre un
7805 fornisce 5V.

Questi componenti presentano poi una parte in metallo, solitamente si tratta della parte posteriore, che
molte volte finisce con un anello, ed è usata per poterci attaccare un dissipatore di calore, così da
aumentare il raffreddamento.

Abbiamo configurazioni sia verticali che orizzontali.

Le caratteristiche, per esempio di un 7812, sono le seguenti:

Abbiamo una tensione di uscita di 12V, una tensione di dropout di 2V, una corrente di 1.5 .
Siamo quindi nell’ordine di dissipazione di 18W (12 * 1.5) con una tensione di ingresso che gli va fornita che
deve essere almeno di 14V. Abbiamo che 2V è il dropout, la caduta di potenziale minima tra ingresso e
uscita che gli deve essere fornita in modo tale che sia in grado di fornire 12 V, è infatti ottenuta come 12V +
2V.
La line regulation ci fornisce invece informazioni su come varia la tensione di alimentazione, quindi se Vi
varia in quel range con una corrente erogata di quel valore, avrò una variazione in uscita di soli 13 mV,
quindi in uscita un valore di 12V +- 13mV.
A una variazione notevole della tensione di ingresso otteniamo in uscita una variazione di soli 13mV.
Invece da load regulation vediamo come se vario tanto la corrente erogata, avendo una tensione di
ingresso costante la tensione di uscita varia solo di 25mV.
Per la temperatura ci viene detto che per ogni variazione di 1 grado abbiamo che la tensione varia di 1mV.
Se cambiamo anche di 100° abbiamo la tensione scende al più di 100mV (avremo 11.9 o 12.1), quindi sono
molto efficienti.
Di seguito rappresentiamo lo schema di un tipico alimentatore basato su un regolatore monolitico in grado
di fornire una tensione di 12V:

SI prende un trasformatore così che ci fornisca isolamento galvanico con l’alimentazione di rete, e con un
certo rapporto spire tale in funzione della tensione che mi serve.
Poi ho un raddrizzatore a ponte di Graetz, il 7812 e un condensatore di ingresso e di uscita, i cui valori sono
consigliati dal costruttore. Con questo semplice circuito si ottiene una tensione costante pari a 12V.
Ne esistono di questo tipo anche il suo duale che fornisce una tensione negativa, basato anch’esso su un
regolatore lineare serie, ma la sigla cambia e diventa pari a 79xx e quindi un 7912 ha le stesse
caratteristiche di un 7812 soltanto che fornisce in uscita una tensione di -12V tra l’ingresso e l’uscita.
Usando un 7812 e un 7912 si può ottenere un’alimentazione duale e per farlo utilizzo un trasformatore a
presa centrale con singolo primario e doppio secondario con ponte di Graetz.
Il terminale intermedio del secondario viene preso come riferimento (0V) mentre un terminale della
diagonale viene mandata in ingresso al 7812 mentre l’altro terminale viene mandato in ingresso al 7912.
Quindi hanno il terminale di massa a comune e il 7812 mi fornirà in uscita rispetto al mio riferimento mi
fornirà in uscita rispetto al mio riferimento (terminale centrale) una tensione di 12V mentre il 7912 mi darà
in uscita una tensione di -12V.

In questo modo otteniamo una tensione di uscita duale.


Bisogna stare attenti al fatto che l’ordine dei piedini del 7812 e del 7912 sono diversi, sono scambiati tra di
loro l’ingresso e la massa.
Posso in modo semplice realizzare un alimentatore duale che mi occorre per esempio per alimentare
amplificatori operazionali a +-12V.

Regolatore di corrente
I regolatori monolitici integrati possono essere usati per realizzare un regolatore di corrente, in modo da
ottenere una corrente costante.
Prendiamo il regolatore monolitico 78XX e colleghiamo tra l’uscita e la massa una resistenza R costante e
dopodichè colleghiamo l’uscita a un carico RL sul quale vogliamo erogare una corrente costante.
VDC alimenta il nostro regolatore di tensione.

Vediamo se IL è costante e indipendente da RL.


Valutiamo le correnti, in presenza di un 78XX che presenta in uscita tra il terminale U(+) e il terminale M(-)
una tensione VXX:

La corrente IM è una corrente generalmente trascurabile rispetto a questo valore.


Se facciamo il bilancio delle correnti sappiamo che:

Se faccio operare il 78XX in modo tale che la corrente erogata da esso IR risulti molto grande rispetto al
valore di IM, la corrente che scorre nel mio carico è costante al variare di RL.
Posso cambiare il carico ma gli verrà sempre fornita una corrente costante.
Questa soluzione presenta alcuni problemi, ci sono un ceto numero di ipotesi che devono essere
soddisfatte in modo che la corrente erogata sia indipendente dal carico.
La corrente erogata non può essere innanzitutto troppo piccola, perché se la IR diventa paragonabile alla
IM e la IM presenta delle variazioni, la IL non può più essere considerata costante.
La RL non può essere scelta a piacere, se scelgo RL troppo grande il circuito smette di funzionare.
Andiamo a scrivere la caduta di tensione sulla maglia esterna, che sarà pari alla caduta ai capi del 78XX più
la caduta VXX che abbiamo ai capi di R più la caduta ai capi della resistenza.

Il problema è che devo garantire che il mio 78XX funzioni sempre correttamente. Abbiamo visto che il 78XX
funziona correttamente se la caduta ai suoi capi VEU >= Vdropout.
Devo quindi garantire che la differenza di potenziale tra E e U sia almeno pari a questo valore.
Se fisso VDS il valore minimo che può ottenere è Vdropout nel worst case.
Se aumento troppo RL visto che IR è fissata accade che la caduta sulla resistenza RL è così grande che,
mantenendo costante VDC e VXX, non è più garantito che tra il terminale E ed U sia rispettata la caduta di
potenziale Vdropout. La situazione peggiore è la seguente:

Determinato il valore massimo di RL che posso usare, che è dato da:

Il circuito funziona correttamente a patto che la resistenza non sia così grande da non garantire più che tra
ingresso e uscita del mio regolatore vi sia la tensione minima richiesta.
La RL non può essere troppo grande o il 78XX smette di funzionare.

Regolatori non lineari a commutazione (switching)


I regolatori serie che abbiamo visto, presentano vantaggi rispetto ai regolatori diodo zener.
Dobbiamo considerare che questi regolatori non sono così efficienti. Il grosso problema è l’elemento di
passo ai cui capi vi deve essere una caduta di tensione, ma se sto erogando 1A con questo oggetto, il mio
circuito integrato sta dissipando una potenza di Vdropout*1A, per esempio possiamo considerare Vdropout
= 2V, dissipo quindi molta energia sotto forma di calore senza fornirla al carico. Quindi la mia alimentazione
deve fornire energia aggiuntiva perchè una parte di essa viene dissipata dall’elemento di passo e solo una
parte viene fornita al carico. L’idea è allora quella di sviluppare una nuova categoria di regolatori.
Sono quei regolatori con un comportamento fortemente non lineare e basano il loro funzionamento
sull’utilizzo di un interruttore, questo non dissipa energia perché se calcolo la potenza dissipata dal
componente (prodotto * tensione) considerando l’interruttore ideale, se questo è aperto la corrente che vi
scorre è nulla mentre se è chiuso ed è a resistenza nulla la differenza di potenziale ai suoi capi è nulla.
I regolatori non lineari a commutazione vanno a sfruttare quindi l’interruttore come elemento di passo, e
mentre prima quello che prima era elemento di passo era un elemento dissipativo qui l’elemento di passo
diventa un interruttore. Modificando il tempo di chiusura e di apertura dell’interruttore si potranno
ottenere delle tensioni di valore diverso. Con gli elementi di passo visti nei circuiti precedenti, la tensione di
uscita deve per forza essere in modulo minore della tensione di ingresso, mentre qui si possono ottenere
tensioni in modulo anche maggiori della tensione di ingresso.
Ho uno schema di questo tipo in cui tra la tensione di ingresso e il mio carico viene interposto un
interruttore.
Consideriamo Vd per il momento tensione costante e vediamo che forma ha V0.
Indichiamo con ton l’intervallo di tempo in cui l’interruttore è chiuso e fa passare corrente attraverso di
esso.
Quando è chiuso fa passare corrente e la tensione risulta essere costante mentre quando è aperto, non
scorrendo corrente sulla resistenza, la tensione di uscita è nulla.

Se indichiamo con TS il periodo di pilotaggio dell’interruttore (supponendo quindi di aprire e chiudere con
ton e toff fissi) questa forma d’onda si ripeterà nel tempo.
Ottengo quindi sulla resistenza una tensione periodica di tipo rettangolare.
Parto da una tensione costante e ottengo in uscita una tensione variabile nel tempo.
Vediamo quanto vale il valore medio della tensione V0.
Visto che è periodica e si ripete pari a sè stessa nel tempo l’uscita avrà un valore medio diverso da 0 e di
valore costante. Il valore medio avendo una forma d’onda periodica è l’integrale sul periodo diviso il
periodo stesso.

Quindi essendo Vd costante, ipotesi di lavoro da cui siamo partiti, il valor medio è dato dal valore Vd per
l’intervallo in cui l’interruttore è chiuso, diviso il periodo.
Il rapporto tra ton e Ts prende il nome di duty cycle.

Il valor medio di questa tensione è quindi proporzionale a Vd ed il duty cycle.


Abbiamo trovato quindi che il valor medio della tensione di uscita dipende dalla tensione d’ingresso e dal
duty cycle.
Se quindi sono in grado di modificare il valore del duty cycle riesco a controllare la tensione di uscita.
Quindi se riesco a estrarre il valor medio e ho un circuito che mi controlla il valore del duty cycle ottengo
una tensione di uscita costante. Se anche Vd variasse, se cambiassi il duty cycle opportunamente riesco a
mantenere il prodotto costante.
Devo anche cercare di realizzare l’interruttore il più ideale possibile e anche pilotabile.
Abbiamo delle problematiche realizzative:
- il valore medio deve essere estratto senza dissipare energia. Devo innanzitutto riuscire a
estrapolare il valor medio dell’uscita senza dissipare potenza, perché se il mio scopo è usare un
interruttore senza dissipazione di potenza anche nei componenti circuitali che aggiungo non si deve
dissipare potenza.
Il miglior modo per estrapolare il valor medio di un segnale è quello di realizzare un filtraggio di
tipo passa-basso, che deve essere realizzato senza elementi dissipativi, quindi tramite induttanze e
condensatori.
- Il carico presenta sempre una componente induttiva e quindi l’interruttore deve essere in grado di
assorbire o dissipare l’energia accumulata dall’induttore .
L’induttanza è inerziale alle variazioni di corrente quindi se proviamo a interrompere
istantaneamente la corrente ai capi dell’induttanza si generano delle tensioni molto elevate. La
corrente negli induttori non deve essere quindi interrotta istantaneamente.

Regolatore a commutazione di tipo forward


Supponiamo di avere VDC per il momento costante. Abbiamo poi la presenza di un interruttore ideale posto
in serie al generatore, con affiancato ad esso un diodo che dovrà evitare che la corrente nell’induttore si
interrompa.
L’induttanza e il condensatore ci danno il filtro LC passa-basso del 2° ordine.
Abbiamo infatti un’induttanza in serie tra ingresso e uscita e un condensatore in parallelo al carico RL.
L’induttore e il condensatore devono essere scelti opportunamente in modo tale che sul carico RL vi sia il
valor medio della tensione che ho ai capi del diodo, devono quindi eliminare tutte le componenti di segnale
diverse da quelle a frequenza nulla.

Se prendiamo la tensione ai capi del diodo, trascurando la caduta ai capi del diodo stesso, quando
l’interruttore è chiuso questa vale Vd mentre quando è aperto il diodo è in conduzione e ai capi del diodo
ho Vy, che possiamo considerare nullo così da avere un cortocircuito.
Le componenti armoniche del segnale, facendo la Trasformata di Fourier, visto che il segnale è a frequenza
fs che si ripete, avranno una componente a frequenza nulla, ovvero il suo valore medio, e poi abbiamo le
altre armoniche che sono multiple della frequenza del nostro segnale (fs, 2fs, 3fs, ecc.).
Il filtro ideale è quello in figura a sinistra tratteggiato, con una frequenza di taglio tale da far passare solo la
componente a frequenza nulla:

Nella realtà i filtri non hanno un andamento verticale di questo tipo ma il filtro reale ha un andamento di
questo tipo:

Ha una banda più o meno piatta fino a fc, poi se è del 2° ordine abbiamo una pendenza di -40db/dec.
Posso fare in modo che la frequenza fc del mio filtro sia molto più piccola di fs.

fc in un filtro del 2° ordine come quello in figura ha questa espressione.


Se impongo che la frequenza di taglio del mio filtro sia minore di fs, le armoniche di ordine superiore
vengono attenuate notevolmente, nell’esempio in figura di almeno 80db.
Più piccolo è fc rispetto a fs e più è vero che sul carico troverò soltanto il valor medio.
Dimostriamo in maniera analitica che la tensione dipende dal duty cycle.
Facciamo l’ipotesi semplificativa di aver scelto un condensatore e induttanza tali che il filtro passa-basso
abbia un comportamento assimilabile a quello ideale.
Vediamo che legame c’è tra la tensione di ingresso e quella di uscita.
Durante Ton l’interruttore è chiuso e quindi VD è applicata intorno al diodo che è interdetto (catodo
collegato al + e anodo al -) e quindi il circuito risultante è questo:

Tutto funziona correttamente e in uscita ho V0 costante.


Se facciamo il grafico di VL in funzione del tempo, che è la differenza tra la tensione di ingresso e la
tensione di uscita vista la sua posizione, avremo un valore pari a Vd – V0.
Durante Toff abbiamo che l’induttanza cerca di mantenere costante la tensione che la attraversa e il diodo
entra in conduzione, facendo sì che IL possa continuare a scorrere.
Qui stiamo usando il modello del diodo ideale, Vy = 0 e quindi diventa un cortocircuito.

La corrente continua a scorrere e la VL ha il – collegato a Vo ma il + stavolta è collegato al terminale di


riferimento. Se ipotizziamo V0 positivo abbiamo durante la fase B:
La corrente che scorre nell’induttanza è legata alla tensione dell’induttore con questa espressione:

Se la tensione ai capi dell’induttore è costante, la sua corrente sarà linearmente dipendente nel tempo, e
quindi durante l’intervallo A la corrente aumenterà linearmente, con un andamento di una rampa
crescente, del tipo (Vd – V0)* t. Ho una corrente nell’induttore che risulta quindi essere periodica.

La corrente che ho nell’induttore all’istante t sarà pari a:

L’aver ammesso che è periodica mi porta a dire che:

Stiamo facendo l’ipotesi del valor medio della corrente sia tale che la corrente non si annulli mai.
L’integrale tra 0 e t + Ts lo posso spezzare in due per le proprietà dell’integrale. Ho due membri uguali al
primo e secondo membro e quindi:

Ho l’integrale tra un istante t generico e l’istante t+Ts e quindi è l’integrale su un periodo.


Quindi ciò è equivalente a dire che aver ammesso che la corrente nell’induttore assume una forma
periodica è vero se e solo se l’integrale su un periodo della tensione ai capi dell’induttore è uguale a 0.

Graficamente questa espressione analitica che ho trovato ci dice che l’area tra il rettangolo A e B devono
essere uguali, essendo che la loro somma deve essere nulla.
Se lo traduciamo ciò implica:

Essendo che le tensioni sono costanti:

Posso allora a questo punto cancellare i termini uguali e ottenere:

Ricavo a questo punto Vo, valor medio della tensione di uscita:


Abbiamo ritrovato in modo analitico la relazione qualitativa trovata all’inizio.
La tensione di uscita che ipotizzo costante, in quanto il filtro elimina le armoniche di ordine superiore, è
proporzionale alla tensione di ingresso Vd e al duty cycle.
Tornando al nostro circuito abbiamo quindi ottenuto:

Quando l’interruttore è chiuso il diodo è polarizzato inversamente (D OFF) e quindi la corrente scorrerà
attraverso l’induttanza, una parte attraverserà poi il condensatore e una parte attraverso la resistenza e
dopodichè entrambe le correnti si richiudono scorrendo appunto sul terminale in basso.
Quando l’interruttore è aperto nell’induttore sta scorrendo una corrente, e questa istantaneamente non
può cambiare altrimenti avrei una tensione infinita ai capi dell’induttore. Il diodo entra in conduzione e fa
scorrere una corrente che scorrerà attraverso l’induttore, in parte attraverso il condensatore in parte
resistenza e si richiuderà attraverso il diodo stesso.
Il diodo entra in conduzione per consentire alla corrente di poter continuare a scorrere.
Il condensatore e l’induttanza svolgono il proprio ruolo di filtro e fanno sì che sulla nostra resistenza RL
ottengo una tensione costante.
Questo è il nostro regolatore di tipo forward che consente di ottenere una tensione di uscita della stessa
polarità della tensione di ingresso il cui valore è però inferiore (D <= 1, è 1 quando ton = Ts) e quindi:

Regolatori a commutazione di tipo flyback


Si può realizzare un diverso tipo di regolatore switching, definito di tipo flyback, che consente di avere una
polarità di uscita opposta rispetto a quella di alimentazione e una tensione di uscita anche superiore a
quella di ingresso. Lo schema è riportato di seguito, è analogo al precedente cambiando di posto il diodo
con l’induttore.
Quando S è chiuso, il diodo D risulta interdetto (D OFF), la corrente passa attraverso l’interruttore si chiude
attraverso l’induttanza ed essendo che però il diodo è interdetto (ha il catodo collegato al + di VDC),
durante questo periodo la corrente scorre solo nella maglia di ingresso.
Avrò però anche che una corrente scorre nella maglia a destra visto che il condensatore mantiene una certa
tensione sull’uscita. Questo perché abbiamo un circuito RC all’interno del quale scorre corrente.
Quando l’interruttore si apre la corrente che scorreva nell’induttanza scorreva dall’alto verso il basso, ma
l’induttore è inerziale rispetto alle variazioni di corrente e sviluppa una tensione ai suoi capi che cerca di
mantenere costante questa corrente. il diodo entra in conduzione per consentire alla corrente di
continuare a scorrere nell’induttore, corrente che scorrerà attraverso il condensatore, il carico e si
richiuderà attraverso il nostro diodo.
La corrente che passava nell’induttanza comincia a circolare in senso antiorario.
La corrente scorre nel nostro carico dal basso verso l’alto. Quindi prendiamo Vu col + verso il basso e il –
verso l’alto. Quando S si richiuderà il condensatore si riscaricherà attraverso la resistenza.
Si noti che nel caso del regolatore flyback la sorgente VDC non alimenta mai direttamente il carico.
L’induttore accumula energia quando collegato a VDC e restituisce energia al carico nel periodo successivo.
Mentre nel regolatore forward il carico e il condensatore C sono alimentati dalla sorgente VDC durante
l’intervallo in cui l’interruttore è chiuso e dall’induttanza L quando l’interruttore è aperto, nel caso del
regolatore flyback la sorgente VDC non alimenta mai direttamente il carico: l’energia viene trasferita da
VDC all’induttanza e solo successivamente dall’induttanza al carico. Negli intervalli in cui l’interruttore è
chiuso l’energia assorbita dal carico è fornita dal condensatore C, che viene poi ricaricato nell’intervallo in
cui l’interruttore è aperto, a spese dell’energia immagazzinata nell’induttanza.
Quando l’interruttore è chiuso la tensione VL è uguale a VDC poiché collegate direttamente, mentre
quando aperto la VL è di valore apposto alla Vu per la polarità scelta per la Vu.

Visto che anche in questo caso la tensione VL assume una forma d’onda periodica e visto che possiamo
quindi assumere che corrente nell’induttore sia periodica essa stessa, per le considerazioni viste prima
imponiamo che l’area nell’intervallo ton sia uguale all’area del rettangolo nell’intervallo toff. Quindi:
Dividiamo tutto per Ts e otteniamo delle quantità pari al duty cycle. La tensione di uscita è pari a:

La polarità della tensione di uscita è opposta rispetto a quella di VDC per le polarità viste nel circuito e il suo
valore dipende da D. Posso ottenere un valore maggiore di VDC, perché anche se D è minore di 1:

Il circuito è molto versatile e mi consente di ottenere in funzione del duty cycle una tensione che può
essere minore, uguale o maggiore della tensione di ingresso.
Ho una tensione di uscita che riesco a controllare mediante un parametro, il duty cycle.

Isolamento galvanico
I regolatori switching finora visti necessitano di una sorgente di alimentazione continua: questa può essere
ottenuta con un trasformatore (che garantisce l’isolamento galvanico dalla rete di distribuzione dell’energia
elettrica) seguito da un ponte di Graetz e da un filtro capacitivo. Tale soluzione funziona ed è in certi casi
utilizzata, ma mantiene uno degli svantaggi tipici degli alimentatori tradizionali, vale a dire l’elevato
ingombro e l’elevato peso del trasformatore.
Partendo dalla tensione di rete a 50Hz deve esserci però per forza la presenza di un trasformatore per
motivi di sicurezza.

Nella parte a) della figura seguente viene illustrata la situazione di pericolo che si viene a creare quando si
tocca una qualunque parte di un’apparecchiatura connessa alla rete direttamente senza trasformatore.
Prendiamo un’apparecchiatura che alimentiamo direttamente con l’alimentazione a 230V come valore
efficace e 50Hz coi due fili, fase e neutro, quest’ultimo vincolato a terra.
L’apparecchiatura avrà delle impedenze Z1, Z2 (dipendenti dal circuito interno) tra il terminale di fase e
neutro e il terminale di riferimento dell’apparecchiatura.
L’impedenza Zp rappresenta la persona che se tocca una parte circuitale è sottoposta a scossa elettrica
perché viene percorsa da una corrente che si richiude poi a terra, tramite i piedi.
Si innesca un circuito che si può chiudere tra la persona e la terra attraverso la fase e quindi Z1 e poi Zp, si
chiude una maglia.
In presenza di un trasformatore (b), si ha il cosiddetto “isolamento galvanico”, permette di avere circuiti
collegati al secondario galvanicamente isolati dal primario.
Viene interrotto il collegamento che riferiva a terra le tensioni all’interno della apparecchiatura, le tensioni
sul secondario sono riferite rispetto al terminale di massa che non ha nessun collegamento al terminale di
terra, e non c’è nessuna possibilità di avere una maglia chiusa, infatti l’unico modo perchè l’utente possa
subire una scossa elettrica è che questi tocchi contemporaneamente due punti del circuito a tensione
diversa. Il secondario non ha un proprio collegamento tramite un conduttore a un collegamento di terra
che prima avevo. Un trasformatore nel circuito devo averlo, ma un buon trasformatore che funziona a 50Hz
è molto ingombrante.

Regolatore switching forward senza trasformatore a frequenza di rete


I regolatori switching hanno però un grande vantaggio.
A f=50Hz ho trasformatori di grandi dimensioni e peso ma se i trasformatori funzionano ad alte frequenze
possono essere più piccoli, considerazione legata ai materiali che posso utilizzare.
I regolatori di tipo switching sono dei regolatori in cui posso andare a utilizzare dei trasformatori che
funzionano ad alta frequenza.
Per avere un trasformatore devo avere un segnale periodico, ho quello a frequenza di rete ma nei
regolatori switching un segnale periodico lo ho anche a valle del mio interruttore.
Dopo l’interruttore ho infatti una tensione variabile nel tempo, alla frequenza a cui faccio funzionare
l’interruttore, che se funziona ad alta frequenza mi dà un segnale ad alta frequenza.
Quindi posso applicare il trasformatore a questo segnale ad alta frequenza invece di utilizzarlo alla
frequenza di rete.

Parto quindi dalla tensione di rete, non applico il trasformatore, vado solo a raddrizzare, prendo il
condensatore che mi fa diminuire il ripple, dopo il quale metto l’interruttore e solo dopo questo ho una
tensione variabile nel tempo ad alta frequenza e metto quindi un trasformatore ad alta frequenza.
Posso quindi usare un trasformatore molto piccolo, è ancora in grado di darmi la separazione tra primario e
secondario e quindi isolamento galvanico, ma è molto piccolo e compatto.
Avrò però la necessità di avere due diodi.

Quando S è chiuso passa una corrente nel primario del trasformatore.


Per mantenere il flusso magnetico nullo all’interno del trasformatore la corrente fuoriesce dal terminale
con il pallino del secondario, determinando una polarizzazione diretta di D1 (D1 ON) e inversa di D2 (D2
OFF).
La polarità della tensione in alto è positiva e quindi D2 sarà interdetto, quindi la corrente passerà attraverso
L e si dividerà attraverso il condensatore e il carico, per poi ricongiungersi.
Quando S è aperto il trasformatore non è più attraversato da corrente, il diodo D1 è interdetto (D1 OFF)
mentre il diodo D2 (D2 ON) entra in conduzione, consentendo all’induttanza L di scaricarsi sul parallelo C2-
RL. I due diodi si alternano nei due semiperiodi.
Ai capi di D2 ho una corrente alternata, R e C funzionano da filtri e quindi ottengo una tensione a valor
medio costante dipendente dal duty cycle.

Regolatore switching flyback senza trasformatore a frequenza di rete


Una soluzione che richiede un numero minore di componenti è quella dell’alimentatore switching di tipo
flyback, sempre con trasformatore ad alta frequenza. Tale soluzione è di gran lunga la più utilizzata.
Ho un trasformatore ad alta frequenza dove però il pallino del secondario è verso il basso.
Vengono utilizzati solo un diodo D1 e il condensatore C2.

In questa configurazione il trasformatore non funziona più come tale, poiché, come discuteremo nel
seguito, non opera a flusso magnetico nullo.

Quando S è chiuso, la corrente scorre nel primario e sul secondario la corrente dovrebbe scorrere uscendo
dal pallino, però c’è il diodo che impedisce che questo avvenga e quindi la corrente non scorre perché D1 è
OFF. La corrente nel secondario è quindi nulla.
Scorre una corrente nel primario che lo porta a considerarlo come una semplice induttanza in cui sto
accumulando energia magnetica perchè ci scorre una corrente attraverso.

Quando apro l’interruttore nel primario non scorre più corrente ma comunque nel mio trasformatore avevo
un flusso magnetico presente dovuto al fatto che vi stava scorrendo corrente e l’inerzialità della variazione
di flusso magnetico fa sì che sul secondario scorra una corrente per avere un flusso costante.
L’unico modo di mantenere il flusso magnetico che era presente subito prima dell’apertura consiste nel far
circolare una corrente nel secondario, entrante nel pallino.
Se prima la corrente entrava nel pallino adesso nell’istante successivo all’apertura scorrerà una corrente nel
secondario entrante nel pallino e questa volta può scorrere perché il diodo D1 glielo consente.
Questa corrente determina una polarizzazione diretta del diodo D1 (D1 ON) e va ad alimentare il
condensatore C2 e il carico.
Durante il primo semiperiodo scorre corrente solo nel primario mentre durante il secondo semiperiodo
scorre corrente solo nel secondario e l’induttanza è quella che avevo prima nel circuito flyback.
L’induttanza che avevo prima è stata sostituita dall’induttanza del trasformatore.
il fatto che la corrente scorre nel secondario è dovuto al fatto che il flusso magnetico non può interrompersi
istantaneamente nel mio trasformatore.
Avevo un flusso magnetico generato dalla corrente nel primario, apro l’interruttore e questo flusso
magnetico viene mantenuto diverso da 0 perché non sto funzionando a flusso magnetico nullo e deve
scorre nello stesso modo in cui scorreva prima la corrente e quindi anche nel secondario deve entrare nel
pallino.
Si può dimostrare che questa configurazione flyback è equivalente a quella studiata in precedenza.

Alimentatore a commutazione flyback con trasformatore ad alta frequenza e circuito di regolazione


Uno schema di principio dell’alimentatore flyback è il seguente ed è molto vicino ai regolatori switching
usati come alimentatori dei computer.
Viene usato il flyback perché facilmente può far ottenere tensioni di valore diverso, operando sul duty cycle
e perchè può anche essere realizzato con poche componenti.
Finora abbiamo fatto un’ipotesi semplificativa che andiamo adesso a rimuovere, supponendo che la
tensione VDC era costante e quindi ottenevo una tensione di uscita costante.
Nella realtà ho una tensione di ingresso variabile che devo regolare in modo da ottenere una tensione di
uscita costante, e lo faccio operando sul duty cycle. Dovrò avere un sistema in reazione che mi misura il
valore di Vu e in funzione di esso mi va a modificare il valore di D, aumentandolo o diminuendolo.

Ho bisogno di un raddrizzatore di tensione di rete dato dal ponte di Graetz, il sistema migliore per avere un
raddrizzatore a doppia semionda, in parallelo al quale metto un condensatore. Dopo il quale dobbiamo
realizzare il nostro interruttore e per fare questo possiamo usare un MOSFET di potenza, dobbiamo erogare
comunque una certa potenza dovuta al fatto che ci passa corrente attraverso l’interruttore ma quando ci
passa corrente farò in modo che la tensione ai suoi capi sia la più piccola possibile, cerco di dissipare il
meno possibile, non ci riuscirò nel caso reale ma cerco di fare un interruttore vicino a questo
comportamento. Metto quindi in serie il mio interruttore come MOSFET di potenza, su cui vado a pilotare
opportunamente il gate tramite il circuito di controllo dello switch.
Ho poi il mio regolatore flyback dato dal mio trasformatore col diodo, il condensatore e il mio carico.
Il controllo viene fatto con un circuito in reazione, che preleva la tensione di uscita che porta al partitore di
tensione dato da R1 e R2. Quindi è possibile calcolare il valore di V+.
La tensione di uscita la vado a confrontare con una tensione di riferimento che genero con un regolatore di
riferimento che prende in ingresso la tensione Vu.
L’amplificatore A1 è un amplificatore differenziale e amplificherà la differenza tra il mio segnale di uscita
partizionato e il mio segnale di riferimento. L’amplificazione viene portata in ingresso al terminale – di un
comparatore, operazionale che viene tenuto a loop aperto, e che sarà sempre o saturo alto o saturo basso
a seconda del segno (se V+ > V- sarà saturo alto, mentre se V- > V+ sarà a saturo basso, a tensione
negativa): se l’onda triangolare applicata all’ingresso non invertente ha un valore superiore a quello
dell’uscita di A1, l’uscita di A2 è al valore di saturazione positiva, altrimenti si trova al valore di saturazione
negativa.
L’uscita di A1 sarà il segnale continuo che viene portato in ingresso al comparatore al – di di A2.
Negli intervalli di tempo in cui l’onda triangolare è maggiore dell’uscita di A1, significa che V+ > V- e quindi
la tensione di uscita è al valore di saturazione positiva.
Durante il secondo semiperiodo invece il segnale a onda triangolare è minore del segnale costante e ci
troviamo al valore di saturazione negativa.
Il mio segnale di uscita dal comparatore sarà alto durante l’intervallo in cui l’onda triangolare è maggiore
della tensione di uscita di A1.

Supponiamo che quando l’uscita è saturo alto questo corrisponde a quando l’interruttore è chiuso, Ton,
mentre che quando è saturo basso corrisponda a Toff.
L’uscita di A2 è il segnale che per semplicità possiamo considerare come quello che pilota Ton e Toff.
Supponiamo che Vu diminuisce, l’uscita di A1 si porta nella situazione in figura. La tensione v1 diminuisce e
in tal caso l’intervallo Ton in cui l’onda triangolare è maggiore della tensione costante diventa maggiore.
Succede che quindi che Ton aumenta e che Toff diminuisce.
Il sistema è quindi in grado di modificare il valore di Ton e Toff in modo opportuno, tramite una reazione
negativa. Questa onda triangolare si ottiene mediante un generatore di onda triangolare di valore massimo
e minimo scelti in modo tale che tutto funzioni correttamente.

Il valore della tensione in uscita da A2, segnale di controllo, viene portato al circuito di controllo del switch
tramite l’accoppiatore ottico, che garantisce l’isolamento galvanico: se l’uscita di A2 è in saturazione
positiva, il transistore è in conduzione, altrimenti è in interdizione.
Nel percorsi di andata la separazione è data dal trasformatore ma anche nel ritorno devo riportare il
segnale mediante un disaccoppiamento.
I circuiti di controllo dello switch sono alimentati mediante un altro secondario, tipicamente usato per
alimentare il circuito in modo diverso senza usare la parte regolata.
Troviamo un altro componente particolare, RA. Il sistema in reazione funziona a regime, all’inizio ci deve
essere qualcuno che comincia ad aprire/chiudere Q1, l’interruttore, a quel punto avrò una tensione di
uscita Vu e quindi posso alimentare il circuito di reazione e far funzionare il tutto. Però all’inizio deve
funzionare l’oggetto e quindi all’inizio qualcuno deve iniziare ad aprire/chiudere Q1 e lo fa il circuito di
controllo del switch.
Qualcuno deve alimentare il circuito di controllo dello switch all’inizio altrimenti non ho possibilità di farlo
funzionare. All’inizio lo fa funzionare proprio la resistenza RA, resistenza dimensionalmente grossa perché
attraverso esso passa molta corrente, che ha lo scopo di portare la tensione al circuito di controllo all’inizio.
A questo punto si apre/chiude l’interruttore e si mette in moto il regolatore flyback, viene generata la
tensione sul secondario e una volta fatto ciò D2 e C3 forniscono la tensione di alimentazione e tutto
funziona correttamente. La resistenza svolge quindi il suo ruolo solo all’inizio e dopo non lo svolge più.
E’ quella resistenza che quando si rompe, dopo aver spento il PC questo non si riaccende più e pensiamo si
sia rotto allo spegnimento. Ma si è rotta solo la resistenza e si è rotta l’ultima volta che lo abbiamo acceso.
Essendo RA rotta nessuno fornisce la tensione iniziale al circuito di controllo del switch.

Circuiti digitali
Un segnale analogico è un segnale definito all’interno di un certo range di ampiezze all’interno del quale
può assumere un qualsiasi valore.
Un segnale analogico può essere tempo-continuo, se definito in qualsiasi istante temporale all’interno di un
intervallo, oppure tempo-discreto (o campionato), se definito solo per alcuni istanti temporali precisi.
Definiamo x(t) una qualsiasi forma d’onda di una qualsiasi grandezza fisica, avremo:

dove a sinistra troviamo il segnale tempo-continuo e a destra quello tempo-discreto.


Un segnale digitale è una sequenza di numeri, segnale definito solo per alcuni istanti temporali ma con un
numero finito di valori che può assumere in ampiezza.
A ogni livello di ampiezza possiamo associare un codice, per esempio numerico, e in questo modo possiamo
scrivere il segnale come una sequenza di numeri:

Tipicamente i livelli si descrivono usando un sistema di numerazione binario e non decimale:

Potremo usare qualunque sistema per la rappresentazione dei valori di ampiezza, tipicamente si usa
usando il sistema binario perché è semplice da un punto di vista implementativo visto che dobbiamo
discriminare solo due livelli (0/1), un livello ON e un livello OFF.
L’elettronica digitale è l’insieme dei circuiti e funzioni logiche che servono a processare segnali digitali.

Logica a diodi
Iniziamo vedendo come si può realizzare la porta logica AND.

A, B e C sono variabili binarie, possono assumere come valori solo 0 e 1.


Visto che abbiamo a disposizione nei circuiti solo tensioni e correnti dobbiamo definire una convenzione,
decidendo a cosa associare il significato di una variabile che ha valore logico 0 e una variabile che ha valore
logico 1.
Ad un determinato noto circuitale assumiamo che la variabile associata a quel nodo sia 0 se la tensione su
quel nodo è basso, molto vicino a 0V.

Associamo la variabile 1 ad un nodo se la sua tensione è alta, per esempio 5V.


Abbiamo 4 combinazioni essendo che A e B possono assumere solo due valori.

Proviamo a realizzare usando solo diodi e resistenze la funzione logica AND.


Prendiamo due diodi che hanno a comune l’anodo e mediante unaa resistenza portiamo l’anodo a un
valore di tensione alto. VA e VB sono entrambi livelli di tensione riferiti a ground.
A e B possono assumere come valori 0 e 1 e quindi VA e VB possono avere come valori solo 0V e 5V.
Prendiamo VCC = 5V.
Se VA e VB assumono come valore 5V, essendo sull’anodo il valore di tensione anche pari a 5V (VCC) i diodi
saranno interdetti.
Le due correnti sono nulle perchè abbiamo un circuito aperto, sulla resistenza non scorre corrente, non c’è
caduta sulla resistenza e quindi Vout = VCC.
Nel caso in cui almeno uno dei due ingressi è a 0, ho una tensione bassa sul catodo e alta sull’anodo
(plausibilmente positiva perché abbiamo 5V attraverso una resistenza), uno dei due diodi quindi si accende
e sostituendo al diodo la caduta Vy avremo 0.7V sul nodo Vout e quindi ai capi della resistenza avremo una
corrente non nulla (Vcc – Vy / R) che attraverserà anche il diodo e lo attraverserà nel verso coerente con
quello indicato nella freccia, quindi l’ipotesi di diodo ON viene verificata dal fatto che troviamo una
corrente positiva che lo attraversa.

E’ infatti sufficiente che soltanto VA o soltanto VB siano a tensione 0 perchè il corrispondente diodo
conduca e anche l’uscita vada a 0.7V.
Nel primo caso si accendono entrambi i diodi, nel secondo caso solo il diodo 1 e nel terzo solo il diodo 2, ma
basta un solo diodo per portare in basso la tensione di uscita.

Abbiamo realizzato l’equivalente di una porta logica AND, ma si osserva un limite.


Abbiamo definito come convenzione che il codice 0 è associato a 0V ma si osserva che l’uscita bassa è pari a
0.7V. Mentre nel quarto caso ho Vout = 5V e questo è possibile perché la caduta sulla resistenza è nulla.

Vediamo invece come realizzare la porta logica OR.


La tabella di verità sarà la seguente:

Il circuito che implementa questa funzione è il seguente:

La resistenza stavolta connette la tensione di uscita a massa.


In assenza di corrente sulla resistenza la tensione Vu sarà nulla, e vogliamo che ciò accada quando entrambi
gli ingressi sono 0, orientiamo quindi i diodi come in figura.
Quando VA e VB sono a 0V allora entrambi i diodi sono interdetti (abbiamo 0 a sx e 0 a dx), se assumiamo
che Vu sia nulla allora la tensione ai capi della resistenza sarà nulla e quindi la corrente che attraversa la
resistenza sarà nulla e quindi anche la corrente che scorre nel diodo sarà nulla, quindi abbiamo verificato
l’ipotesi di diodo interdetto.
Nel caso in cui almeno uno o entrambi siano a 5V, per esempio ragioniamo solo su D1. Se VA = 5V la
tensione sull’anodo è maggiore di quella che abbiamo sul catodo, perché quest’ultimo è connesso tramite
una resistenza a massa.
Ipotizzando che D1 sia ON andiamo a sostituire al diodo la sua caduta equivalente e possiamo quindi
assumere che al nodo di uscita la tensione sia pari a 4.3V togliendo la caduta Vy sul diodo, abbiamo quindi
una corrente positiva sulla resistenza (4.3V / R, quindi positiva) e quindi la corrente risultante sul diodo sarà
coerente con il verso in figura e quindi con l’ipotesi iniziale di diodo ON.

E’ sufficiente che uno solo dei due sia a 5V per avere una tensione di uscita di 4.3V.
Abbiamo quindi realizzato una funzione OR; è sufficiente che uno dei due ingessi abbia un livello di tensione
alto per portare l’uscita a un livello di tensione alto.
Si osserva che almeno uno dei due livelli di uscita non è pieno, la tensione di uscita è identificabile come
livello alto ma non abbiamo 5V pieni.

Troviamo però dei problemi nella logica a diodi.


Abbiamo innanzitutto una degradazione dei livelli logici nel caso di più porte logiche in cascata, in uscita in
alcune condizioni non ho il livello pieno ma ho un livello degradato, e questo diventa un problema serio nel
caso in cui si vogliano realizzare dei circuiti più complessi.
Supponiamo di avere una porta logica OR pilotata dalle variabili A e B la cui uscita va in ingresso a un’altra
porta logica, e supponiamo di ripetere la cosa più volte.

Il circuito risultante sarà il seguente:

Nel caso in cui abbiamo A = 1 e B, C e D siano uguali a 0, ci aspettiamo che Vout sia 1, visto che è sufficiente
che uno solo dei due ingressi valga 1 per avere 1 in uscita.
Se guardiamo le tensioni in gioco però osserviamo che:

La tensione Vout ideale dovrà essere di 5V.


Sulla prima porta logica abbiamo D1 ON e quindi la tensione sul nodo di uscita valrà 5V – 0.7V = 4.3V, la
seconda porta logica vede invece un ingresso a 0V e l’altro ingresso a 4.3V.
Il diodo D3 sarà ON e la tensione di uscita che troviamo sarà pari a 4.3V – 0.7V = 3.6V.
Sulla terza porta logica troviamo un ingresso basso a 0V, un ingresso alto a 3.6V, si accende D5 e in uscita
troveremo 3.6 – 0.7 = 2.9V.
Se continuassi ad aggiungere porte in cascata a un certo punto non sareri più in grado di determinare con
precisione il livello che trovo sull’uscita.
Nella scala in cui associamo 0V al bit 0 e 5V al bit 1, un numero lì in mezzo non sappiamo più a cosa
associarlo. Man mano che aumento il numero di porte in cascata il livello logico si degrada.
Questo problema lo troviamo anche nelle porte AND, dove lì troviamo che è invece lo 0 a non essere
preciso, se aggiungo più porte in cascata di tipo AND aggiungo 0.7 a ogni livello quando voglio in realtà
l’uscita bassa.
Un secondo problema della logica a diodi è la dissipazione di potenza statica, la logica a diodi non dissipa
potenza quando non c’è corrente sulla resistenza.
Se assumo di avere sulla porta logica OR entrambi gli ingressi a 0, i diodi sono spenti e non c’è corrente, ma
è sufficiente che uno dei due ingressi sia a 5V affinché il diodo si accenda e quindi abbiamo un
assorbimento di corrente che attraversa il diodo e passa sulla resistenza, quindi si ha dissipazione di
potenza.
Se almeno uno dei due diodi vale 5V, l’uscita vale 4.3V e quindi la corrente che attraversa la resistenza:

Se sono entrambi accesi la corrente è la stessa.


La potenza sarà invece pari alla tensione per la corrente e quindi:

Per la AND il problema si pone in cui almeno uno degli ingressi è nullo.
Nel caso in cui VA e/o VB sono pari a 0V si ha assorbimento di corrente e quindi dissipazione di potenza.
Il diodo si accende e quindi sull’anodo abbiamo una tensione pari a 0.7 e quindi dinuovo:

Nel caso in cui si hanno entrambi a 0V si ha lo stesso risultato.


Il terzo problema che si ha è che non abbiamo modo di realizzare una funzione logica il cui valore di uscita
sia invertito rispetto al valore dell’ingresso e quindi la funzione logica NOT, utilizzando solo diodo e
resistenze.
Problema considerevole perché sfruttandolo solo AND e OR non è possibile realizzare tutte le funzioni
logiche a più di due ingressi. Un sistema di funzioni logiche elementari AND e OR non è completo.
Usando solo NAND e NOR invece, siamo in grado di realizzare qualsiasi funzione logica a più di due ingressi.

Logiche basate su transistori (MOSFET in questo caso)

Inverter 1NMOS/1R
Vediamo adesso la realizzazione di un inverter usando un NMOS e una resistenza.
In generale il transistore viene realizzato sfruttando tutta la dinamica dell’ingresso e dell’uscita.
Il segnale di ingresso può assumere un qualsiasi valore e lo stesso per l’uscita.
Prendiamo un NMOS con il Source a massa e il Drain che è portato attraverso una resistenza a VCC e
definiamo VGS come tensione di ingresso, mentre sul Drain andiamo a prendere la tensione di uscita.
I transistori MOSFET usati per realizzare circuiti digitali vengono usati solo in due stati:
- OFF (spento), quando la VGS < VTN.
Un transistore MOS con una VGS minore della tensione di soglia ha una ID = 0 e quindi il
suo circuito equivalente sarà un circuito aperto.

- ON (acceso), in cui abbiamo VGS >= VTN e con VGS – VT >> VDS.

Sotto queste due ipotesi siamo in zona di funzionamento lineare.

Con la seconda ipotesi possiamo semplificare questa espressione trascurando VDS^2.

La relazione tra corrente di drain e la tensione VDS è lineare e quindi possiamo definire una resistenza
equivalente esattamente pari al rapporto tra VDS e ID.

Quindi il modello equivalente è il seguente:

e questa resistenza tipicamente è molto piccola, ed essendo VGS – VT molto grande, il denominatore si può
approssimare come segue:
Vogliamo realizzare la seguente tabella di verità:

Osserviamo che:

Infatti VTn > 0.


Il transistore è OFF e abbiamo come circuito equivalente:

Quindi visto che la corrente che attraversa la resistenza è nulla (abbiamo un circuito aperto infatti in
entrambi i lati) la tensione di uscita sarà pari a 5V.

Abbiamo quindi come modello equivalente:

Vu è quindi la partizione di tensione tra Ron e R.


ma se progettiamo il transistore in modo tale che Ron << R abbiamo un uscita plausibilmente molto vicina a
0V.

Considerando l’inverter 1T-1R (1 Transistor e 1 Resistenza).


Prendiamo la trans-caratteristica (VTC, Voltage Transfer Characteristics), relazione tra tensione di ingresso e
uscita nel range da 0 a VCC.
Abbiamo che Vin coincide con VGS e Vout con VDS.
Nella tensione di ingresso ci possiamo muovere da 0 fino alla tensione massima VDD (o VCC).
Quando il diodo è spento, al posto del transistore avremo un circuito aperto vista l’assenza della corrente
sulla resistenza R, e la tensione sul nodo di uscita coincide con VDD.
Il transistore rimane in fase di interdizione finchè la Vin, ovvero la VGS non raggiunge la tensione di soglia,
l’uscita valrà sempre VCC per una tensione di ingresso bassa e compresa tra 0 e la VTn. La tensione di
ingresso non è sufficiente ad accendere il transistore.

Quando ho Vin pari a VCC, la differenza VCC – VTn è sostanzialmente pari a VGS – VTn, per VGS – VTn molto
grande la resistenza Ron sarà molto piccola e molto probabilmente sarà più piccola della resistenza R.
Nel modello equivalente tra drain e source abbiamo una resistenza Ron molto piccola:

Resistenza che è proporzionale a 1/(VGS – VTn) ma VGS coincide con VIN e quindi è molto piccola.
Qui avrò una Ron molto piccola e quindi se calcolo l’espressione sul drain posso scrivere:

Avrò una Ron molto piccola e quindi questa espressione va a degenerare in 0.


Ma con che andamento va a 0 la transcaratteristica tra i due punti? Ricavarla analiticamente non è banale
ma sappiamo che valrà sempre questa espressione appena scritta, e sappiamo che Ron è proporzionale a
1/(Vin – Vtn), e quindi man mano che mi sposto da Vtn verso VDD la resistenza diminuisce sempre di più
fino ad arrivare a 0. Quindi qualitativamente ha un andamento come quello nel grafico.
Abbiamo superato uno dei limiti della logica a diodi trovando un modo per realizzare un inverter.
Se mi metto nella transcaratteristica tra 0 e VTn il MOSFET è spento e quindi per un ingresso basso in
condizioni statiche ho una corrente di funzionamento nulla e quindi ho una potenza dissipata statica uguale
a 0. Nell’altro estremo però ho il nodo di drain a massa ma sulla resistenza ho una tensione pari a VDD e
sarà quindi attraversata da una corrente pari a VDD/R e avrò quindi una potenza dissipata staticamente pari
a R*I^2, quindi pari a VCC^2/R.
Abbiamo ancora un problema della logica a diodi, in condizioni statiche in almeno uno dei due livelli logici la
potenza dissipata staticamente è nulla.
Potrei pensare di realizzare una resistenza di valore molto elevato ma la resistenza di una porta logica non
conviene farla grande perché la sua velocità di risposta di computare da un livello all’altro dipende dal
valore di resistenza della porta, e resistenze grandi coincidono con livelli lunghi.
Comporterebbe quindi dei ritardi, in particolare i ritardi di propagazione come vedremo.
Possiamo quindi realizzare un inverter con un MOSFET e una resistenza, detta tipicamente anche RPULL-UP,
visto che ha il ruolo di tirare su il valore di tensione di drain quando il MOSFET è spento.
Invece l’NMOS opera il ruolo di PULL-DOWN, portando il valore di tensione del drain verso il basso.

Inverter 1PMOS/1R
Vediamo invece come realizzare un inverter con una resistenza e un PMOS (1PMOS/1R).
La configurazione è molto simile ma dobbiamo scambiare le posizioni di transistor e resistenza,
rispettivamente in alto e in basso. Stavolta la resistenza sarà di PULL-DOWN.

La VDS è quella in figura e tipicamente è negativa, mentre la VGS è quella che va da source a gate,
anch’essa tipicamente negativa.

Abbiamo:

Vin sarà al più VCC visto che VGS < 0. La tensione di uscita invece:
Disegniamo la transcaratteristica (VTC) e adesso il transistore sarà spento se metto la Vin a una tensione
alta e quindi vicina alla VCC così la VGS è vicina a 0.
Quindi se il PMOS è spento posso sostituirlo con un circuito aperto e quindi la Vout sarà forzata al nodo di
Ground attraverso la resistenza di PULL-DOWN e questa condizione si mantiene finchè la Vin non la
abbasso fino a una certa tensione di soglia, fino a quel valore in modulo ho una VGS sempre compresa tra 0
e la soglia VTp.
All’altro estremo se la Vin la porto a 0, ho VGS = - VCC che è molto minore della tensione di soglia VTp.

Posso quindi assumere che la Ron del PMOS è molto piccola e disegnando il modello equivalente:

Quando Vin = 0 la Ron assume il suo valore minimo e quindi VU sarà molto vicina a VCC, visto che:

Il rapporto sarà infatti prossimo a 1 e quindi Vu sarà prossimo a VCC.


Dobbiamo ricordarci che la Ron del PMOS dipende dallo scarto in modulo tra VGS e VTp e possiamo quindi
tracciarne il grafico.
Adesso abbiamo che quando l’uscita è bassa il PMOS è un circuito aperto e quindi è qui che abbiamo una
potenza dissipata statica nulla, ma il problema lo abbiamo solo spostato perché per un ingresso basso la
Vout = VCC e quindi la resistenza ha ai suoi capi una tensione pari a VCC e quindi avremo una potenza
dissipata pari a VCC^2 / R.
Non siamo liberi di ottimizzare la resistenza perché se da un lato vogliamo renderla più piccola possibile per
rendere la porta logica veloce, dall’altro vogliamo renderla grande per limitare la dissipazione di potenza.

Inverter CMOS
Possiamo sfruttare i vantaggi delle due configurazioni studiate, nella zona per ingressi bassi i vantaggi
dell’NMOS e per gli ingressi alti invece, i vantaggi del PMOS così da avere un inverter sia veloce che con una
potenza dissipata piccolissima, in ognuna delle due fasi statiche avremo infatti almeno uno dei due
transistor interdetti. Usiamo 1 NMOS come PULL-DOWN e 1 PMOS come PULL-UP.
La soluzione al problema della dissipazione di potenza in condizioni statiche da parte dell’inverter consiste
nel realizzare la cosiddetta configurazione MOS complementare (Complementary MOS, CMOS).
Abbiamo un transistor di tipo P che connette attraverso il suo drain l’uscita a VCC e quindi in base allo stato
della sua VGS può connettere l’uscita a VCC e svolgere l’operazione di PULL-UP, mentre in basso abbiamo
un NMOS che connette il suo drain quando è acceso al ground attraverso il canale del transistore.

Dal punto di vista delle tensioni abbiamo:

Possiamo osservare che la IDn, è uguale e di segno opposto alla IDp.


La corrente entrante del drain dell’NMOS coincide con la corrente entrante del drain del PMOS a meno del
segno.

Queste sono le relazioni che valgono nel circuito e possiamo disegnare il modello equivalente che è sempre
valido ma cambiano le resistenze in gioco.

Entrambe le resistenze equivalenti dipendono da Vin e quando o l’NMOS o il PMOS è spento la resistenza
equivalente associata è infinita.
Prendiamo la transcaratteristica e vediamo il suo andamento da un punto di vista qualitativo.
Quando almeno uno dei due transistori è spento, abbiamo un ingresso che può andare da 0 a VCC e per Vin
= 0, la VGS dell’NMOS è nulla e quindi minore della sua tensione di soglia e quindi l’NMOS è aperto.
Abbiamo allora che la resistenza equivalente è infinita, la corrente che scorre quindi sulla resistenza del
PMOS è nulla. Per una tensione che va da 0 alla tensione di soglia dell’NMOS ho una resistenza del PMOS
finita e una resistenza equivalente dell’NMOS a cui sostituiamo un circuito aperto.

Quindi la Vu va a coincidere con la VCC visto che abbiamo una caduta trascurabile sulla resistenza del
PMOS.
Considerazioni simili si possono fare quando la tensione di ingresso è molto alta e vicina a VCC con una
distanza massima pari al modulo della tensione di soglia del PMOS.
In questa zona VGSp = Vi-Vcc ma se al posto di Vin inserisco un valore in questo intervallo, la VGSp non sarà
in modulo maggiore rispetto alla sua soglia e quindi alla resistenza equivalente del PMOS sostituiamo un
circuito aperto perché stavolta è il PMOS ad essere spento.

In questa configurazione la Vu è sempre esattamente pari a 0.


Poi tra questi due punti (Vtn e VTp) entrambi i transistor sono accesi e le resistenze sono finite, ma
andiamo via via a diminuire la resistenza dell’NMOS perché aumentiamo la VGSn e il contrario vale per il
PMOS perché aumentando la Vin in modulo diminuiamo la VGSp e quindi avremo una forma di questo tipo:

Abbiamo quindi tre regioni e abbiamo sicuramente zone in cui i dati sono interpretati in modo corretto.
Se la tensione di ingresso si discosta poco da 0, l’inverter mi fornisce un uscita esattamente pari a VCC e
quindi interpretabile in modo preciso pari all’1 logico.
La stesso cosa per Vin vicina a VCC perché l’inverter è in grado di fornire in uscita esattamente pari a 0V
anche se l’ingresso si discosta poco da VCC.
Nella prima regione abbiamo quindi Input Low (IL) e Output High (OH).
Nella terza regione abbiamo invece Input High (IH) e Output Low (OL).
La seconda regione invece, detta anche zona proibita, dal punto di vista del funzionamento dell’inverter
potrebbe sembrare inutile, perché la porta logica voglio usarlo solo per ingressi e uscite ben definite.
Questa zona è però essenziale affinché una porta logica generica abbia la capacità di operare una
rigenerazione dei livelli logici.
E’ importante osservare che negli stati che usiamo nominalmente, prima e terza regione, abbiamo sempre
almeno uno dei due transistori spento. Per un ingresso basso abbiamo l’NMOS OFF e quindi la corrente
sulla Ron del PMOS è nulla, e dualmente quando è il PMOS a essere spento non abbiamo corrente sulla
resistenza dell’NMOS perché il ramo è interrotto.

La logica CMOS permette di superare tutte le problematiche della logica a diodi:


- assorbimento di corrente (e dissipazione di potenza) trascurabile in condizioni statiche. Non c’è
dissipazione di potenza statica negli stati ILOH e IHOL in quanto almeno uno dei due transistor è interdetto
e preclude il passaggio di corrente anche sull’altro, acceso. Infatti IDp = -IDn ed è quindi sufficiente che uno
sia spento affinché la corrente su entrambi sia nulla.
- è possibile implementare un inverter.
- i livelli logici vengono rigenerati. L’uscita per un ingresso basso è sempre alta e pari a VCC e per un
ingresso alto è sempre pari a 0, a meno che non entriamo nella zona proibita.
L’inverter è la porta più semplice realizzabile con la logica CMOS, ma con la logica CMOS possiamo
implementare anche altre porte logiche che mantengono sostanzialmente le stesse proprietà e gli stessi
vantaggi.

Caratteristiche statiche di un circuito logico


Vediamo le caratteristiche statiche importanti per un circuito logico.
Definiamo ora alcuni dei parametri utilizzati per la caratterizzazione dei circuiti digitali e per determinare
l’interoperabilità tra gli stessi.
I discorsi che faremo sono applicabili anche all’inverter ma sono caratteristiche del tutto generali.

Rigenerazione dei livelli logici


Consideriamo per esempio due inverter in cascata.

Questa porta si indica con il nome di buffer, e se abbiamo un segnale nel primo ingresso molto rumoroso.

La tensione può essere o a livello alto o a livello basso.


Immaginiamo ora di avere un segnale pari a VCC fino a t0 e dopo il quale diventa 0.
Supponiamo che la tensione sia molto rumorosa come quella tracciata in figura.
Se VCC ha questa forma, anche se l’ingresso non è esattamente VCC ma ragionevolmente vicino, l’uscita
sarà comunque 0 e quindi l’ingresso interpreta comunque bene l’ingresso anche se questo non è
esattamente pari a VCC.
Lo stesso si ripropone da t0 in poi.
Quello che succede quindi su Vout1 è la seguente cosa:

Mentre per quanto riguarda l’uscita finale:

Il buffer dal punto di vista logico è trasparente, trasferisce in uscita ciò che vede in ingresso. Ha però la
grande proprietà di rigenerare il segnale, riuscendo a rigenerare il livello logico.
Questa proprietà deriva dalla fdt della porta logica invertente ed è strettamente legata alla presenza della
zona proibita.
Se calcoliamo la derivata della Vout in funzione della Vin e la tracciamo in modulo al variare della Vin,
tracciando quindi il guadagno, abbiamo nella zona proibita una pendenza all’inizio piccola, che poi aumenta
sempre di più e arriva a un massimo per poi ritornare piccola.

Se prendiamo con riferimento il punto 1, punto in cui la VTC ha una pendenza di -45°, se portiamo questi
punti nel grafico del guadagno possiamo riconoscere bene due zone in cui il guadagno è minore di 1 e zone
in cui il guadagno è maggiore 1.
Abbiamo rigenerazione del segnale quando il segnale di ingresso si trova nelle due zone di ingresso a
guadagno minore di 1, perché difronte a una variazione grande dell’ingresso l’uscita varia poco, anche se
l’ingresso è molto rumoroso l’uscita è molto più stabile.
In ingresso ho una scala che va da 0 a Vcc e lo stesso per l’uscita e per VCC ci devo passare ma per garantire
che agli estremi il guadagno sia minore di 1 è che nella zona intermedia il guadagno sia minore di 1, e quindi
la zona intermedia ci garantisce la proprietà di rigenerare il segnale.
Avere una zona proibita in cui la sua VTC mostra un guadagno in modulo maggiore di 1 ci permette la
rigenerazione.
La condizione necessaria per rigenerare i livelli logici è che la porta logica sia implementata con almeno un
elemento attivo che consenta di ottenere una caratteristica di trasferimento in tensione tra ingresso e
uscita (Voltage Transfer Characteristics, VTC) con una regione a guadagno differenziale > 1 (regione
«proibita»).
Questa condizione non è sufficiente, ma sicuramente se non abbiamo componenti attivi che non ci
permettono di avere questa zona allora non sarà possibile garantire di avere anche le altre due zone.
Questo spiego perché la logica a diodi non ci permette di rigenerare segnali, questo perché non presenta
elementi attivi ma solo passivi.

Margini di rumore
Consideriamo una transcaratteristica:

Definiamo i margini di rumore prendendo i punti a pendenza -1 sulla VTC e proiettiamo i due punti sui due
assi così da ottenere 4 diversi punti. In generale possiamo assumere che tutti i punti a sinistra di VILmax
possono essere tranquillamente interpretati come uno zero in ingresso, VILmax risulta quindi essere il
massimo punto dell’ingresso in cui l’ingresso viene interpretato come basso.
Definiamo invece VOHmin il minimo punto dell’ingresso che viene interpretato come un ingresso alto.
Notiamo quindi che allarghiamo il range, prendiamo come valido tutto il range in cui il guadagno è minore
di 1.
Il punto in alto sulle ordinate lo indichiamo con VOHmin, uscita alta nel caso minimo, mentre quello in
basso lo indichiamo con VOLmax, massimo del range di uscita che viene interpretato come livello basso.
Immaginiamo ora di avere due inverter in cascata o comunque due porte logiche implementate con la
stessa logica e quindi con questi parametri molto simili.
Se ci mettiamo al nodo Vout1 cosa è necessario affinché la porta 2 riconosca in modo corretto l’uscita della
porta 1?

E’ necessario che:

Se sappiamo che il primo inverter ci dà nel caso peggiore VOHmin, e se questo è comunque maggiore del
minimo che viene interpretato come ingresso alto allora va bene. Analogamente se:

siamo sicuri che l’uscita bassa dell’inverter 1 sia riconoscibile come ingresso basso dall’inverter 1.
Queste differenze in modulo rappresentano i margini di rumore, noise margin, quello per il livello alto e
quello per il livello basso.
Questi due valori ci dicono il valore massimo che si può tollerare a quel nodo.
L’ingresso che vede l’inverter 2 è l’uscita dell’inverter 1 più un rumore esterno che si sovrappone al segnale.
Questi valori ci dicono il rumore massimo che si può avere affinché sia correttamente interpretabile.

Generalmente si definisce un parametro di merito, che è il caso peggiore tra questi due:

Potenza dissipata statica


Prendiamo un circuito digitale generico che in generale ha un ground, un’alimentazione VCC, un’uscita Vout
e un numero variabile di ingressi.

Assumiamo correnti trascurabili entranti/uscenti sui nodi di ingresso e uscita (sempre vero per la logica
CMOS). Questo è sicuramente vero per le porte logiche CMOS, perché gli ingressi finiscono ai gate dei
transistori MOS e quindi la corrente è nulla.
L’uscita è connessa sul drain ma solitamente serve a pilotare un altro circuito logico, e se quello è anche di
tecnologica CMOS in condizione statiche, la corrente di uscita sarà anch’essa nulla.
Facciamo due test.
Nel primo test usiamo una configurazione degli ingressi che pone l’uscita nello stato alto (‘H’).
Misuriamo la corrente ICC che sarà indicata come ICC(H), che ci dice che l’uscita è nello stato alto, e quindi:

Si fa esattamente lo stesso test nella condizione di uscita bassa, e troveremo:

La potenza dissipata statica media potrà essere calcolata come segue:

Caratteristiche dinamiche
Sono le caratteristiche che un circuito digitale mostra quando viene operato nel tempo, per esempio
quando commutiamo l’ingresso del circuito e vogliamo vedere come cambia l’uscita.
Le caratteristiche che dipendono dalle variazioni nel tempo dell’uscita in seguito a una variazione
dell’ingresso.
Modello equivalente dinamico
Consideriamo una porta logica, per esempio un inverter, come studiamo la risposta di questo oggetto nel
tempo?
Dobbiamo arricchire il modello con una serie di parametri.
Chiamiamo l’inverter DUT (Device Under Test).
Aggiungiamo un carico plausibile LOAD, per esempio una porta logica dello stesso tipo, pilotata dalla porta
logica che stiamo indagando.
Dopodichè ci mettiamo al nodo di uscita della porta che stiamo considerando e valutiamo tutte le capacità
che afferiscono a questo nodo.
Sicuramente abbiamo un effetto capacitivo data da questa intersezione, che schematizziamo con una
capacità equivalente (Cw, wire) verso massa.
Abbiamo poi una capacità di ingresso mostrata dal carico, Cin(LOAD), e poi abbiamo una capacità a cavallo
di ingresso e uscita del DUT, Cmiller.

Il modello equivalente del DUT si compone di tre componenti:


- il DUT stesso
- il carico plausibile
- capacità afferenti al nodo di uscita del DUT
A partire da questo modello si può ricavare un modello equivalente più semplice.
Si considera solo il DUT con in uscita un’unica capacità equivalente e vediamo come calcolarla.

Sarà pari alla somma delle capacità tra il nodo OUT e un nodo costante, ad esempio la massa (Cw +
CINload) e poi dobbiamo anche considerare il contributo della capacità Cmiller, che però contrariamente a
Cw e CINload va pesata due volte.

Questo perché se analizziamo Cw e immaginiamo che l’ingresso passi da 0 a 1 (quindi da 0 a VCC), noi ci
aspettiamo che l0uscita varierà da VCC a 0.
Cw vede ai suoi capi una variazione pari a +-Vcc, a seconda se si passa da 0 a 1 e viceversa, lo stesso vale
per CINload.
A ogni commutazione dell’ingresso segue una commutazione dell’uscita e la variazione in tensione vale
VCC.
Per Cmiller quando l’ingresso varia da Low a High, l’uscita del DUT varierà da High a Low e quindi prima
della commutazione avremo al nodo a sinistra del Cmiller un livello basso e a destra un livello alto, mentre
dopo la commutazione quello a sinistra sarà salito a VCC mentre quello a destra a Ground.
Ho una variazione doppia rispetto agli altri che hanno un terminale sul nodo di uscita e un terminale sul
nodo costante. Poiché vede una variazione doppia di tensione, dobbiamo pesarla due volte.
Se consideriamo il modello equivalente dinamico avremo due possibili variazioni, quando l’ingresso varia da
un livello basso a un livello alto e quindi l’uscita subirà la commutazione opposta, e passando da VCC a
Ground lo fa perché il nodo di uscita viene connesso internamente a Ground attraverso la resistenza
equivalente del MOS.
Abbiamo quindi che VC(t0) è carica VCC, ma all’istante t0+ viene connessa a bassa attraversa la resistenza
Ron del MOS che implementa la porta logica.

La dinamica che dobbiamo studiare quindi è la seguente, con Vout che ha una forma di questo tipo:

La carica sul condensatore ci scaricherà attraverso la resistenza e la tensione di uscita si scaricherà con una
forma come quella in figura.
Il tempo di scarica, e quindi il tempo di commutazione dell’uscita, dipende dalla costante di tempo
t=Ronpull-down*Cout.
Circuiti con capacità grandi e resistenze di pull-down grandi tendono a essere lenti nel commutare il livello
dell’uscita.
Se invece l’ingresso passa dal livello alto al livello basso ci aspettiamo che l’uscita passi da livello basso a
livello alto e lo fa perché a questo istante il condensatore che era scarico viene cortocircuitato attraverso la
resistenza equivalente di un PMOS dell’inverter al nodo VCC.

Vc(t0) = 0 ma col passare del tempo il nodo viene tirato su a VCC, avremo un passaggio di corrente sulla
resistenza che carica il condensatore e porta la tensione di quel nodo a VCC.
Si ottiene quindi una dinamica di questo tipo:
con una tensione iniziale pari a 0 e dopo t0 abbiamo una forma di questo tipo, tipica della carica di un
condensatore.
Il tempo di carica è proporzionale ancora una volta al prodotto tra Ronpull-up e la capacità Cout.

Ritardi di propagazione
Sono definiti come il ritardo tra i due istanti in cui uscita e ingresso hanno raggiunto il 50% della
commutazione. Prendiamo il modello equivalente:

Grafichiamo Vout e Vin in funzione del tempo, all’inizio l’ingresso è a 0 e a un certo punto viene commutato
al valore alto VCC e poi torna di nuovo a 0.
Noi consideriamo Vol = 0V e Voh = 5V.
La forma d’onda dell’uscita ci aspettiamo che sia come quella in figura.
Alla commutazione basso/alto dell’ingresso l’uscita andrà a commutare ma con un certo ritardo e lo stesso
accadrà difronte all’altra commutazione.
Se prendiamo l’istante temporale in cui la commutazione è al 50% nella commutazione basso/alto
dell’ingresso e se facciamo lo stesso nell’uscita la differenza temporale definisce il ritardo di commutazione
alto/basso e i pedici che useremo fanno sempre riferimento alla commutazione dell’uscita.
Nell’altra commutazione si può fare lo stesso campionando l’istante temporale in cui l’ingresso ha
raggiunto il 50% della sua commutazione e lo stesso all’uscita, facendone poi la differenza.
Abbiamo quindi che si tratta del ritardo con cui un segnale si propaga dall’ingresso verso l’uscita.
Anche questi ritardi dipendono dalle costanti di tempo, infatti quelli in figura non sono altro che carica e
scarica del condensatore.
Proporzionali come segue:

con t0, t1, t3 e t4 nell’ordine temporale.


Si ha come parametro di merito:

Energia immagazzinata in un condensatore


L’energia immagazzinata in un condensatore carico a una tensione VDD è pari a:

Per dimostrarlo immaginiamo di avere un condensatore con una capacità C, supponendo che Vc(t0) = 0V e
Q(t0) = 0 (condensatore inizialmente scarico) e che con un generatore di corrente con una forma d’onda a
impulso lo andiamo a caricare.

La forma della corrente del generatore nel tempo sarà:

Carica il condensatore a corrente costante e dopo un transitorio torna a 0.


Dalla relazione della capacità C = Q/V possiamo scrivere questa relazione e derivare in funzione del tempo,
esplicitando la vc in funzione della ic:
Definito il livello ION calcoliamo la carica che il generatore trasferisce al condensatore alla fine di questo
intervallo.
La carica è l’integrale della corrente e quindi sarà l’area di quella regione, e quindi usando la relazione C =
Q/V possiamo calcolare la V finale:

Se disegniamo il grafico della tensione ai capi del condensatore, partendo da un condensatore inizialmente
scarico, dopo deltaT raggiungeremo il valore Vfinale.
Durante il transitorio la forma della tensione nel tempo va come l’integrale della corrente/C.
Ma ic in questo periodo è costante e quindi otteniamo una funzione lineare del tempo, si passa quindi da 0
a Vfinale con una retta.

L’energia immagazzinata su C alla fine della carica si calcola come l’integrale della potenza.

Il prodotto per tempi minori di 0 e superiori a deltaT essendo la corrente nulla è pari a 0 e quindi l’integrale
diventa, dopo aver sostituito il valore della tensione in quella zona come sopra.
Se integro e moltiplico e divido per C:

Energia Dinamica/Potenza Dinamica


L’energia dinamica è legata all’energia dissipata nei processi di carica/scarica del condensatore Cout.
Prendiamo il modello equivalente della nostra porta logica.
Valutiamo le due commutazioni e stimiamo l’energia che viene dissipata a causa della carica/scarica della
capacità equivalente.
Vediamo la commutazione H->L, abbiamo una tensione iniziale VCC e il condensatore si scarica mediante la
resistenza Ron. In questo processo di scarica qual è l’energia che viene dissipata?
Il condensatore all’inizio aveva un’energia immagazzinata pari a ½*C*VCC^2, e quando la tensione sul nodo
si scarica a 0 l’energia immagazzinata nel condensatore viene persa e quindi l’energia dissipata in questa
operazione coincide con quella precedentemente immagazzinata nella capacità di uscita.

La scarica avviene grazie a una corrente ic che è positiva se entrante usando il verso convenzionale, e quindi
in questo caso la corrente va nel verso opposto rispetto a quello convenzionale e sarà quindi di segno
negativo.
Possiamo calcolare le due forme d’onda, che coincidono con tensione e corrente che scorrono sulla
resistenza di PullDown, e calcolarne il prodotto per ottenerne la potenza e fare l’integrale del prodotto per
ottenere l’energia dissipata sulla resistenza di pull-down.
Possiamo osservare che il condensatore all’istante iniziale aveva un energia pari a ½*C*VCC^2 e visto che
alla fine del processo si sarà completamente scaricata possiamo assumere che tutta questa energia si sarà
dissipata sotto forma di calore sulla resistenza del transistore.
L’energia immagazzinata nella Cout caricata a VCC è pari a:

Nel processo di scarica, su Ronpull-down viene dissipata tutta l’energia precedentemente immagazzinata in
Cout, quindi nella transizione H->L sarà pari a:

Nella transizione L->H dell’uscita abbiamo la tensione iniziale ai capi del condensatore pari a 0V e in questa
commutazione connettiamo la capacità equivalente inizialmente scarica attraverso una resistenza di pull-up
a VCC.

Se grafichiamo la tensione di uscita abbiamo:

La corrente ic invece sarà sicuramente 0 prima della commutazione e appena avviene la commutazione
abbiamo un impulso di corrente, che si estingue man mano che il livello di tensione sul nodo di uscita
raggiunge quello di VCC.
Anche in questo caso non ha senso calcolare l’energia dissipata moltiplicando le forme d’onda e calcolando
l’integrale, è poco pratico.
Bensì possiamo:
1. calcolare l’energia erogata dal generatore Vcc
2. considero la quota di quest’energia che troverò nel condensatore alla fine della commutazione
3. se vale il principio di conservazione dell’energia, la differenza tra l’energia erogata dal generatore
VCC nel processo di carico e quella che trovo su Cout alla fine della commutazione, sarà l’energia
che avrò dissipato sulla resistenza di pull-up.
Abbiamo una resistenza di pull-up che deve caricare da 0 a VCC un condensatore equivalente, calcolo
l’energia erogata da VCC come l’integrale tra 0 e infinito della tensione (costante) per la corrente:

L’integrale della corrente è la quantità di carica che troverò sul condensatore alla fine della commutazione.
Ma tutta la carica erogata dal generatore finisce sul condensatore, non ho altri rami, e quindi coincidono.

e dalla relazione C=Q/V:

Sul condensatore avrò alla fine della commutazione un’energia pari a:

Di conseguenza l’energia dissipata nella transizione L->H sarà pari a:

Riepilogando, per ogni ciclo di clock avremo una dissipazione pari a:

In termini di potenza dinamica media, troviamo l’energia dissipata per ciclo di clock diviso il periodo di
clock:

Nel caso di circuiti logici in logica CMOS questa è l’unica potenza che conta veramente.
In condizioni statiche infatti la dissipazione di potenza è trascurabile, avremo sempre un NMOS e un PMOS
in serie in cui almeno uno dei due è spento e quindi preclude il passaggio di corrente sull’altro.
L’unica dissipazione che conta nel caso di circuiti CMOS è quella dinamica, e dipende dalla frequenza di
clock, dalle capacità equivalenti e dal quadrato della tensione di alimentazione.
La capacità dipende dai fenomeni capacitivi parassiti che abbiamo nei circuiti logici, quindi difficilmente si
può modificare in genere.
La frequenza di clock è un parametro che di solito tendiamo ad aumentare, così che il nostro circuito
digitale svolga più operazioni possibili a parità di tempo.
Il parametro più semplice da modificare affinchè la potenza dinamica sia contenuta è quindi la tensione di
alimentazione, ed è conveniente per la presenza del quadrato.

Prodotto Potenza Ritardo (PDP: Power Delay Product, DP: Delay Power)
Nel caso di porta logica CMOS questa cifra di merito vale:

La potenza nel caso generale è costituita da una quota statica e una dinamica ma nel caso di logica CMOS
conta solo quella dinamica.

FAN-IN e FAN-OUT
FAN-IN e FAN-OUT sono caratteristiche che dipendono sia da aspetti statici che dinamici.
Il FAN-IN è il numero massimo di ingressi che una tipologia di porta logica implementata in una determinata
logica e tecnologia può avere.
Sull’inverter non ha senso, perché il numero di ingressi sarà sempre 1.
Se pensiamo a una porta logica NAND, invece che può essere implementata a più ingressi FAN-IN coincide
con N.

Il FAN-OUT è il numero massimo di porte logiche dello stesso tipo che una porta logica può pilotare in
parallelo (in cascata).

Abbiamo un doppio limite, a limitare FAN-IN e FAN-OUT possiamo avere sia degli aspetti statici come i
margini di rumore, all’aumentare del numero di ingressi o del numero di porte che possono essere pilotate
in uscita i margini di rumore tendono a peggiorare, oppure aspetti dinamici, perché all’aumentare di
ingressi e porte che carichiamo in uscita aumenta il valore di Cout, dovremo considerare il contributo
capacitivo di quella porta aggiuntiva per esempio, aumentando i tempi di ritardo che il consumo di energia.
Inverter CMOS
Riprendiamo l’inverter CMOS e ricaviamo la transcaratteristica utilizzando un metodo grafico a partire dalle
caratteristiche di NMOS e PMOS.
Questo lo possiamo scrivere perché le correnti dei gate sono sempre trascurabili e quindi la corrente di
source e drain coincidono.
Possiamo ricavare un’espressione unica per la Vin e Vout in relazione all’NMOS e al PMOS.

Vin e Vout saranno sempre comprese tra 0 e VCC e quindi lo stesso possiamo dire per VGSn e VDSn e
questo è possibile perché VGSp e VDSp sono sempre comprese tra -VCC e 0.

Riprendiamo le caratteristiche corrente/tensioni di NMOS e PMOS.


Considerando l’NMOS che:

Considerando il PMOS abbiamo che:

Quando VGSn < VTn la corrente è sempre nulla, mentre quando la VGSn >= VTn all’aumentare di VGSn
abbiamo le curve in figura.
Per quanto riguarda le caratteristiche ID(VDS, VGS) del PMOS abbiamo che le caratteristiche saranno nel
terzo quadrante, essendo entrambe negative.
All’aumentare che la VGSp in modulo aumenta il transistore inizia ad accendersi.

Partendo dai due grafici appena disegnati e facciamo delle trasformazioni affinché le grandezze che
abbiamo sull’asse x/y siano le stesse tra i due grafici.
Grafichiamo su un piano Vout-ICC le caratteristiche di NMOS e PMOS.
Per l’NMOS è semplice, al posto del IDSn potrei scrivere ICC e al posto della VDSn posso scrivere Vout e
inoltre possiamo sostituire VGSn con Vin.

Per il PMOS possiamo dire che IDp = -ICC e quindi sicuramente il grafico sarà ribaltato in verticale. Inoltre
tra Vout e VDSp notiamo che c’è un offset pari a VCC. Devo ribaltare il grafico in verticale e poi traslarlo di
una quantità pari a VCC.

Dire che VGSP diminuisce equivale a dire che Vin diminuisce, ma inverto il segno della variazione e cambio il
segno della freccia.

Quando la Vin aumenta accendiamo sempre di più l’NMOS così da avere correnti via via più grandi, mentre
la corrente massima sul PMOS la abbiamo quando Vin è nulla, quindi all’aumentare della Vin andiamo a
diminuire in valore assoluto VGSp.
Ricaviamo la transcaratteristica prendendo queste due caratteristiche e fissata una Vin possiamo plottare la
caratteristica dell’NMOS e del PMOS e la loro intersezione ci darà il punto di riposo dell’inverter.
Per esempio prendiamo:

ma il processo che utilizziamo è del tutto generale.


Prendiamo diversi valori della Vin.
Per Vin = 0V abbiamo NMOS interdetto e per il PMOS abbiamo la caratteristica con corrente massima al
variare della VDS, con una grande differenza tra VGSp e VTp ed è in zona triodo.
Le due caratteristiche si intersecano nel punto pari a VCC, abbiamo quindi Vout = VCC e ICC = 0.
Per Per Vin = 0 possiamo campionare il punto Vin = 0 e Vout = VCC.

Quando Vin supera di poco 1V, per esempio 1.5V, l’NMOS si accende e il PMOS è ancora acceso ma visto
che la sua VGSp dipende da Vin – VCC, avendo aumentato Vin la sua VGSp sta diminuendo.
Le curve si intersecano in un punto molto vicino a VCC.
Per Vin = 2.5V abbiamo entrambi i transistori bene accesi, la corrente dell’NMOS aumenta e quella del
PMOS diminuisce.
Per Vin = 3.5V andiamo ad aumentare la corrente dell’NMOS e a diminuire quella del PMOS, abbiamo qui
l’NMOS in zona triodo e il PMOS in saturazione.
Avremo la Vout molto vicina a 0 in questo caso, anche se non ancora a 0

Per Vin molto vicina a VCC infine avremo l’NMOS completamente acceso e il PMOS completamente spento.
In tutta la regione in cui Vin supera VCC - |VTp| avremo il PMOS completamente spento, stesse
considerazioni possiamo fare nella regione con Vin compreso tra 0 e VTn.
Per quanto riguarda le zone di funzionamento descritte le abbiamo in due condizioni, ce la da la Vin e punto
di intersezione, sia per l’NMOS che per il PMOS stiamo scrivendo esplicitamente la regione di
funzionamento nel punto di riposo ottenuto.
Siamo quindi in grado di costruire in modo molto preciso la transcaratteristica, che risulta dall’unione di
tutti questi punti.
Abbiamo ricavato per ogni punto di Vin la VOUT corrispondente, possiamo adesso costruire un grafico in cui
mettiamo in relazione la ICC rispetto alla Vin.
Da 0 fino a VTn, abbiamo ICC nulla perché l’NMOS è spento.
Tra VCC - |VTp| e VCC abbiamo invece il PMOS spento e quindi ancora ICC = 0, mentre in mezzo abbiamo
una corrente che prima aumenta e poi diminuisce, e questo succede in zona proibita.

Abbiamo la conferma che a Vin basse o a Vin alte la corrente è nulla, ma abbiamo una buona zona nella
zona proibita in cui la corrente non è più trascurabile.
Il punto massimo della corrente si indica con Isc (corrente di cortocircuito, short circuit).
Se pensiamo all’inverter se la Vin è compresa nella zona proibita la ICC è non nulla e nel punto massimo
(che non è esattamente nel mezzo) abbiamo la corrente massima Isc, alla quale è associata una dissipazione
di potenza, PSC = VCC * ISC, quota di potenza dinamica perché nella zona proibita ci passiamo solo quando
dobbiamo commutare lo stato dell’inverter.
In condizioni statiche infatti o solo nella zona di NMOS OFF e o nella zona di PMOS OFF.
Questa quota è però piccola rispetto alla potenza dinamica calcolata considerando la quota dovuta alla
carica/scarica della potenza di uscita.
Quindi avremo come potenza dinamica totale:

che di solito può essere approssimata solo considerando il primo termine.


Questo è il motivo per cui solo questo termine è indicato con potenza dinamica.
E’ bene sapere che in generale abbiamo però anche la presenza dell’altro termine.
Soglia logica di un Inverter CMOS
La soglia logica è definita come il punto della VTC in cui Vout coincide con Vin.
Quindi se nel piano grafico la bisettrice Vout = Vin, quindi la retta a pendenza unitaria, la soglia logica
coincide con il punto di intersezione.
La soglia logica NON è un valore logico ammesso, considerando che ricade praticamente sempre nella zona
proibita.
Possiamo anche calcolarla in modo esatto facendo un’assunzione.
Supponiamo che nella soglia logica entrambi i transistori siano in zona di saturazione, assunzione
ragionevole perché guardando i grafici precedenti il punto rappresentato dalla soglia logica corrisponde al
caso Vin = 2.5V, e trascuriamo anche l’effetto di modulazione di canale.
Utilizziamo le equazioni per PMOS e NMOS valide in saturazione assumendo che non ci sia pendenza in
saturazione di queste caratteristiche, assumendole quindi assolutamente piatte.
Sotto questa assunzione la transcaratteristica sarebbe molto più pendente nel punto in cui ho entrambi i
transistori in saturazione, basta un piccolo delta di Vin per spostare in verticale di molto il valore di Vout.
Sicuramente la soglia logica sarà compresa per una Vin compresa tra Vtn e VCC - |Vtp|.
Con le due assunzioni fatte possiamo partire dalle due espressioni delle correnti di NMOS e PMOS in
saturazione.

Partendo da queste due espressioni abbiamo che la VTC ha una forma di questo tipo, partendo molto
arrotondata ma poi con entrambi i transistori in saturazione abbiamo una pendenza molto verticale (con un
guadagno che può essere assunto infinito) e con le assunzioni fatte la soglia logica ricade in questa zona.
La VIN che soddisfa queste due equazioni messe a sistema è esattamente la definizione di soglia logica.
Se le due equazioni sono vere e visto che abbiamo:

la Vin che verifica questa uguaglianza coincide con la soglia logica.


Partendo dalla seconda equazione:

Nell’ipotesi di saturazione abbiamo bisogno di una VGSp – VTP negativa e quindi dobbiamo prendere la
soluzione col segno meno.
Poi visto che IDp = -IDn e scrivendo sotto radice il valore di IDn si ottiene:
Assumendo che la Cox di NMOS e PMOS sia la stessa, cosa genericamente vera e sostituendo il valore di Kn,
Kp, VGSn e VGSp.

Portando a sinistra i termini con Vin e tutti gli altri a destra, si ottiene:

Otteniamo quindi l’espressione della soglia logica.

Notiamo che la soglia logica non è detto che sia pari a VCC/2, purchè ciò accada dobbiamo avere:

Si parla di NMOS e PMOS simmetrici.


Se riprendiamo l’espressione di B, notiamo che questo è unitario se:

Il rapporto tra le mobilità è una costante, mentre W, L sono parametri che da progettisti siamo in grado di
modificare, e se scegliamo:

Possiamo avere così B unitario.


Se andiamo a dimensione il rapporto W/L come 2.5 volte quello dell’NMOS riusciamo a ottenere B = 1 e se
VTp = -VTn otteniamo una soglia logica pari a VCC/2, importante averla perché in tal caso possiamo avere
una transcaratteristica quasi simmetrica, margini di rumore migliori e ritardi di propagazione H->L e L->H
confrontabili.
Se si rende l’inverter simmetrico ci permette di rendere simmetrico l’inverter dal punto di vista elettrico.
Stima della Cout dell’inverter CMOS
Ricordiamo l’utilità del Cout nel calcolo di energia dinamica e potenza dinamica.
Prendiamo un inverter che fa da DUT e aggiungiamo un altro inverter che farà da carico plausibile e
posizionandoci al nodo di uscita del DUT valutiamo tutte le capacità che afferiscono al nodo.
Avremo sicuramente la capacità dell’interconnessione, la capacità di ingresso nella seconda porta del carico
data dalla somma delle capacità di gate di NMOS e PMOS del carico, abbiamo poi anche le capacità di drain
verso massa dell’NMOS e verso VCC del PMOS del DUT.
Quindi abbiamo due CD, capacità tra drain e massa, nel caso del NMOS saranno dati da CDS + CDB.
Abbiamo poi la capacità tra ingresso e uscita del DUT, data dalla capacità tra il gate e il drain di ognuno dei
due transistori, avremo CGD dell’NMOS e del PMOS.

La Cout equivalente da usare nel modello equivalente sarà pari alla capacità del wire, due volte la capacità
di ingresso del carico (due perché abbiamo una capacità per l’NMOS e uno per il PMOS, lo stesso per la
capacità di uscita del DUT e poi due volte il doppio CGD, uno per l’NMOS e uno per il PMOS e poi perché si
tratta della capacità di Miller.

Se viene richiesto il calcolo dell’energia dinamica di un inverter CMOS si devono usare i passaggi visti la
volta scorsa nelle transizioni H->L, L->H, da lì stimare la potenza dinamica e poi usare questa espressione
come Cout.

Porte logiche CMOS a 2 o più ingressi


Per progettare porte logiche CMOS:
1. occorre definirne la topologia, la definizione della rete circuitale che implementa quella porta logica
2. dimensionare i singoli transistori (W,L)
Per realizzare una porta logica l’idea è quella di estendere i concetti di pull-up e pull-down.
Prendendo come riferimento l’inverter CMOS, l’NMOS svolge il ruolo di «Pull-Down» (quando è attivo
connette l’uscita a ground), il PMOS quello di «Pull-Up» (quando è attivo connette l’uscita a VCC).

Estendendo il concetto, è possibile implementare le funzioni di «Pull-UP» e «Pull-Down» con reti


(«network») realizzate con più transistori.
Questa sarà un’implementazione in CMOS di una funzione logica generica.
Ognuna delle due reti ha generalmente in ingresso un certo numero di variabili.
La Pull-Down-Network (PDN) sarà progetta in modo da condurre per tutte le combinazioni delle variabili di
ingresso che richiedono un’uscita bassa, Y = 0.
La PDN prevede l’uso di soli NMOS e si attiva per una configurazione di ingressi posti a livello alto (NB: se
tutti gli ingressi sono bassi sarà sicuramente disattiva).
La Pull-Up-Network (PUN) sarà progetta in modo da condurre per tutte le combinazioni delle variabili di
ingresso che richiedono un’uscita alta, Y = 1.
La PUN prevede l’uso di soli PMOS e si attiva per una configurazione di ingressi posti a livello basso (NB: se
tutti gli ingressi sono alti sarà sicuramente disattiva).
Se la PDN porta l’uscita a 0 e la PUN porta l’uscita 1, è indispensabile (in condizioni statiche) che nessuna
combinazione di ingressi che attiva la PDN attivi anche la PUN, e viceversa (questo succede naturalmente
nell’inverter).
Altrimenti avrei due problemi: l’uscita sarebbe indeterminata avendo entrambi le reti accese e quindi si
metterebbe a un livello intermedio e quindi ricadrebbe nella zona proibita e avrei una dissipazione di
potenza enorme, perché starei connettendo nello stesso istante e per un lungo periodo la VCC con massa
con due reti entrambe attive.
Quando c’è una commutazione invece, ci sarà un’istante in cui si attivano entrambe con una certa
dissipazione di potenza, ma questa si può accettare.
Le configurazioni di ingressi che attivano la PDN o la PUN dipendono dalla particolare implementazione
circuitale.

PDN: configurazioni serie e parallelo


Nella configurazione in parallelo l’uscita viene porta a massa da due transistori NMOS in parallelo.
E’ sufficiente che almeno uno dei due si accenda affinché l’uscita y sia forzata a ground.
È sufficiente un ingresso a ‘1’ per avere l’uscita ‘0’. Se sono entrambi spenti siamo in alta impedenza.
Per Y scrivere H.Z. ha senso, mentre per Y negato non ha molto senso visto che non esiste, non è realizzato.
Si potrebbe anche scrivere indeterminato.

Una PDN costituita da due (o più) NMOS in parallelo implementa la funzione logica NOR.
Oppure possiamo vedere l’uscita come una AND tra gli ingressi negati.

Relazione nota anche da De Morgan.

Nella configurazione serie l’uscita viene porta a massa da un percorso di due transistori NMOS.
La PDN connette l’uscita a massa, portandolo a 0 solo nel caso in cui entrambi i transistori sono accesi.
È necessario che tutti gli ingressi siano ‘1’ per avere l’uscita ‘0’.
In tutti gli altri casi almeno uno dei due transistori è interdetto, quindi l’uscita non sarà sicuramente a 0 e
quindi l’uscita è in alta impedenza rispetto alla massa.

Possiamo anche indicare il valore del negato dell’uscita


Una PDN costituita da due (o più) NMOS in serie implementa la funzione logica NAND, oppure possiamo
“immaginare” il funzionamento di questa funzione logica associando allo stato di alta impedenza un 1 nel
momento in cui immaginiamo che vi sia una rete di pull-up che svolga quell’azione quando la pull-down è
spenta e quindi in tutti gli stati in cui la pull-down è OFF dobbiamo immaginare che la rete di pull-up porti y
a un valore alto, e in tal caso questa può essere vista come una funzione logica OR tra A negato e B negato.

Relazione nota anche da De Morgan.

PUN: configurazioni serie e parallelo


Nella configurazione serie l’uscita viene porta a massa da un percorso di due transistori PMOS.
Descriviamo qui anche i valori negati, anche se potremmo farlo anche per la PDN.
È necessario che tutti gli ingressi siano ‘0’ per avere l’uscita ‘1’.
In tutti gli altri casi avremo almeno uno dei due transistori spento e quindi saremmo in un caso di alta
impedenza.

Una PUN costituita da due (o più) PMOS in serie implementa la funzione logica AND tra gli ingressi negati.
Ragionando sugli ingressi non negati basta un uno affinchè l’uscita negata non sia a 0.

Nella configurazione in parallelo l’uscita viene porta a massa da due transistori PMOS in parallelo.
È sufficiente un ingresso a ‘0’ per avere l’uscita ‘1’.

Una PUN costituita da due (o più) PMOS in parallelo implemeta la funzione logica OR tra gli ingressi negati.
Oppue ragionando sugli ingressi diretti:

Se voglio evitare i casi di alta impedenza potrei pensare di realizzare una NAND utilizzando come PDN due
transistori in serie e come PUN due transistori in parallelo.
Realizzo la stessa funzione solo che la PDN mi assicura lo 0 quando ho entrambi gli ingressi a 1 mentre la
PUN mi assicura l’uscita a 1 quando ho almeno un ingresso a 0.
Oppure posso realizzare una NOR utilizzando una configurazione parallelo di NMOS e una configurazione
serie di PMOS.

La stessa porta può essere usata come AND utilizzando gli ingressi negati, oppure posso prendere una
NAND con un inverter in cascata.

La porta NAND può invece essere usata come OR utilizzando gli ingressi negati, oppure posso prendere una
NOR con in cascata un inverter.
NAND e NOR rappresentano una coppia di porte che messe insieme in particolari condizioni possono
realizzare una qualsiasi porta logica.

Sintesi di porte logiche più complesse


Generalizziamo il discorso alla sintesi di porte logiche a più ingressi.
Generalizzando, reti più complesse si possono implementare utilizzando combinazioni di transistori serie e
parallelo, seguendo 3 passi:
1) Sintesi di PUN tramite l'espressione logica
2) Sintesi di PDN tramite l'espressione logica negata
3) Derivazione di una rete dall’altra usando il principio di dualità
Esempio:

Applicando ripetutamente De Morgan e i passaggi algebrici vari possiamo scomporre questa funzione.
Caso 1) Sintesi di PUN tramite l'espressione logica
È conveniente partire dalla PUN (che è la rete che implementa la funzione di connettere l’uscita a VCC) e i
cui transistori si attivano con segnali logici bassi, quindi è conveniente ragionare con gli ingressi negati.
Se abbiamo l’uscita diretta e gli ingressi negati conviene realizzare prima la PUN.
Ogni + sarà un parallelo e ogni * è una serie.
Avrà un parallelo tra A due reti, dove quella di sinistra è solo un PMOS mentre quella di sinistra sarà una
serie tra un transistor e un parallelo tra altri due transistor.
NB: Il transistor è pilotato dal negato del’ingresso che corrisponde alla variabile logica, notare infatti che i
segnali dati in ingresso ai gate dei transistori PMOS sono negati.
Quindi la PUN implementa la funzione Y diretta e si attiva con gli ingressi bassi (rispetto all’espressione è
necessario quindi invertire i segnali che pilotano i transistori).
Se nell’espressione logica ci fosse un A non negato l’ingresso sarebbe negato.
Mentre l’uscita negata vale:

Caso 2) Sintesi di PDN tramite l'espressione logica negata


Si può partire dalla PDN, che è la rete che implementa la funzione di connettere l’uscita a ground e quindi
implementa naturalmente la funzione logica negata, e i cui transistori si attivano con segnali logici alti,
quindi con i segnali degli ingressi diretti e non negati.
La PDN svolge la sua funzione, ovvero connette l’uscita a massa quando gli ingressi sono attivi, sono a livello
alto.

NB: notare che i segnali dati in ingresso ai gate dei transistori NMOS sono esattamente quelli indicati
nell’espressione logica, si attiva infatti con gli ingressi a 1 e quindi bisogna usare gli stessi segnali riportati
nell’espressione di y negato.
Invece l’uscita è negata rispetto a quella riporta nell’espressione logica, in quanto la rete di Pull-Down forza
uno ‘0’ in uscita quando almeno uno dei possibili percorsi verso ground è attivo.
Il nodo rimane Y, non Y negato, significa semplicemente che quando questa rete è attiva il nodo viene
portato a 0.
Tipicamente non conviene usare questo approccio, è difficile in genere ottenere un’espressione della y
negata.
Caso 3) Derivazione di una rete dall’altra usando il principio di dualità
Una proprietà fondamentale delle porte logiche CMOS consiste nel fatto che la PUN e la PDN, in condizioni
statiche, non devono mai essere entrambe attive per la stessa configurazione di ingressi
Questa proprietà ci consente di derivare una rete (es. la PDN) dall’altra (quindi dalla PUN) utilizzando il
principio di dualità: ogni connessione serie si trasforma parallelo e viceversa.
Gli ingressi per la PDN inoltre non vanno negati, bensì sono gli stessi che si hanno nei transistori associati
della PUN.

Partiamo dal parallelo e lo mettiamo in serie, dopodichè la serie diventa un parallelo e poi il parallelo
diventa una serie, e siamo quindi in grado di realizzare la PDN a partire dalla PUN.
La soluzione coinciderà con quella realizzata precedentemente.
Il consiglio è quello di partire dalla PUN, esprimendola come somme e prodotti delle singole variabili e
utilizziamo i segnali per pilotare i singoli transistori come negati rispetto a quelli che vediamo
nell’espressione logica.
Se si ha almeno un ingresso negato, per crearlo si può utilizzare un inverter.
Dopodichè per dualità si può ottenere la PDN.

Dimensionamento W/L di PUN e PDN


Lo scopo del dimensionamento è quello di soddisfare due requisiti, il primo è che i ritardi di propagazione
della porta logica siano minori o uguali a quelli di un inverter di riferimento.
I ritardi di propagazione dipendono da:
Avere gli stessi ritardi di propagazione dell’inverter di base significa avere le Ron equivalenti di tutti i
possibili percorsi tra y e VCC, per la PUN, e tra y e ground, per la PDN, siano uguali o al limite inferiori a
quelle dell’inverter di riferimento.
Questo è un buon metodo che ci permette di avere ritardi di propagazione confrontabili.
Nel caso in cui ci sono più dimensionamenti a darmi questa condizione, si preferisci il dimensionamento ad
area minima.

La Ron del NMOS ci interessa quando l’ingresso è alto e quindi VGSn – VTn coincide con VCC meno la
tensione di soglia.
La Ron del PMOS ci interessa quando l’ingresso è a 0 e quindi VGSp – VTp in modulo coincide con VCC
meno la tensione di soglia.
Possiamo quindi semplificare le espressione dove costp e costn sono due costanti che possiamo assumere
coincidenti, lo sono se le soglie sono esattamente uguali e di segno opposto e se è uguale anche Cox, che è
tipicamente uguale.

La Ron è pari a una costante e inversamente proporzionale al prodotto mobilità*rapporto W/L.


Come scelgo il rapporto W/L dell’inverter di riferimento?
L’idea è quella di scegliere W/L tale da avere ritardi di propagazione simmetrici.
Consideriamo l’inverter di riferimento, per avvicinarmi a soddisfare la condizione di ritardi simmetrici
realizzo le Ron uguali.
Mi avvicino perché se cambio le geometrie in realtà non modifico solo Ron ma anche la capacità parassite
dei transistore, e quindi se anche Cout è influenzata non abbiamo ritardi di propagazione perfettamente
uguali a parità di Ron.
Questi coincideranno se coinciderà il denominatore, nell’ipotesi che le due costanti a numeratore siano
uguali:

Quindi se scelgo il rapporto tra le dimensioni di PMOS e NMOS pari al rapporto tra le mobilità, soddisfo la
condizione e il rapporto è in genere vicino a 2.5.

Tipicamente si assume (Wp/Lp) = p = 5 e (Wn/Ln) = n = 2, in modo da garantire un rapporto d’aspetto tra


pMOS e nMOS di 2.5.
Questi valori dipendono fortemente dal tipo di processo e dal tipo di dispositivo che andiamo a utilizzare.
Indichiamo per semplicità il rapporto W/L del PMOS dell’inverter di riferimento con p, mentre quello
dell’NMOS dell’inverter di riferimento con p.
Quella condizione è esattamente uguale a quella trovata per avere la soglia logica a VCC/2 e quindi per
avere buoni margini di rumore, VTC simmetrica e buoni ritardi di propahgazione.
Dobbiamo far sì che la resistenza equivalente di tutti i percorsi della PULL-UP e della PULL-DOWN sia uguale
a quella dell’inverter di riferimento.
Come dimensioniamo i transistor della PUN e della PDN?
Prendiamo in considerazione la PDN e immaginiamo di avere un certo numero di transistor tra l’uscita e
ground in serie.

La resistenza Ron complessiva del percorso è la somma delle resistenze equivalenti dei singoli transistori.

La resistenza di ogni transistore è inversamente proporzionale a [W/L]i.

La costante non dipende infatti da N (quello come pedice indica NMOS).


Questa deve eessere uguale a quella dell’NMOS dell’inverter di riferimento.

Quindi semplificando la costante, abbiamo per il pull-down:

La stessa espressione si può ricavare per un percorso di pull-up esattamente con gli stessi passaggi, dove N*
è la dimensione del percorso.
Il flusso da seguire per dimensione i transistor della PDN e PUN è il seguente:
1. Individuare tutti i possibili percorsi che connettono l’uscita a VCC o a ground. Le connessioni in
parallelo vanno considerati come percorsi diversi, per percorso si intende una serie di transistori.
2. Dobbiamo ordinare i percorsi per priorità e il dimensionamento si fa in ordine di criticità
decrescente, con la criticità legata al numero di transistori in serie che compongono quel percorso.
Si parte quindi dai percorsi più lunghi.
3. Escludere i percorsi impossibili, non mi troverò mai nella condizione di portare l’uscita a
ground/VCC attraverso quel percorso, dovuto al fatto che in quel percorso ci sono due transistor
che sono comandati dal segnale e dal suo negato.

4. Dimensionare tutti i transistori procedendo con l’ordine decrescente di criticità.


Alcuni transistori possono appartenere a più percorsi.
Il percorso più critico è quello che include A, B e D. Se parto da quel percorso e ridimensiono i
transistori A, B e D e dopo individuo il percorso che include C e D allora devo ricordarmi che il
transistore D è stato già dimensionato, non devo ridimensionarlo ma devo mantenere quel valore.

Per gli eventuali inverter necessari per realizzare la variabili negate sarà semplice, per renderlo equivalente
dal punto di vista dei ritardi di propagazione all’inverter di riferimento, basta prendere il rapporto di
aspetto dell’NMOS pari a quello dell’inverter di riferimento n, e lo stesso per i PMOS.
Quando si procede per criticità verso percorsi con un numero di transistori minori possiamo avere più
opzioni e in tal caso si sceglie l’opzione di area minore, posso fare il confronto sommando W/L dei vari
transistori perché quando si fa il dimensionamento tipicamente si prende L = Lmin e si modifica solo W
quando si dimensionano i transistori ed è quindi valido questo confronto.
Se facciamo i conti con una delle opzioni può tornare per un percorso una Ron sovradimensionata, noi la
poniamo uguale ma se maggiore è uguale.
Porta logica XOR (OR Esclusivo) - CMOS

Per quanto riguarda la tabella di verità:

Possiamo pensare di scrivere questa funzione logica come la OR tra i due casi centrali.

Il numero di MOSFET necessario sarà 2x(4+2) = 12.


Iniziamo dagli inverter per generare A e B negato.

Disegniamo la PUN e la PDN, partendo dalla PUN. Abbiamo il parallelo tra due transistori in serie.

Nella PDN abbiamo invece la serie tra due paralleli per il principio di dualità.
Possiamo semplificare la rete se osserviamo che nella rete di pull-down abbiamo due coppie di transistori in
parallelo tra di loro che formano una serie, ma dei quattro percorsi che portano a ground solo due sono
possibili: 10-9, 12-11. I due percorsi 10-11 e 9-12 invece non sono possibili.
Osservando ciò possiamo accorgerci di poter semplificare la rete. Nella PDN posso evitare di fare le
connessioni che implementano percorsi impossibili, quei due transistor non saranno contemporaneamente
accesi, posso connettere 10 e 9 in un ramo e 11 e 12 nell’altro ramo.

Se sono entrambi a 1 accendiamo 9-10 mentre se so no entrambi a 0 attiviamo 11-12 e quindi portiamo
l’uscita a 0, mentre in entrambi i rami di pull-up abbiamo almeno un transistore spento.
Quando sono diversi almeno un ramo della PUN sarà acceso mentre nella PDN almeno uno dei transistori
nella serie è spento.

Confronto area porte logiche NAND e NOR


Vediamo la differenza in area tra la porta logica NAND e NOR con un numero elevato di ingressi, per
esempio M = 4.

Abbiamo bisogno di 4 PMOS in parallelo nella PUN e di 4 NMOS in serie nella PDN.
Entrambe le funzioni logiche sono realizzate con 8 transistori e sono del tutto complementari, 4 PMOS in
parallelo nella PUN della NAND mentre il parallelo lo abbiamo nella PDN della NOR e viceversa per la serie.
Dimensioniamo i transistori prendendo come riferimento un inverter di riferimento, definendo n e p, così
da confrontarli dal punto di vista dell’area.
Prendiamo per l’inverter di riferimento:

Immaginiamo che la lunghezza dei transistori sia la stessa e che sia pari alla lunghezza minima Lmin
realizzabile con quel processo tecnologico, così andremo a modificare solo W.
Calcoliamo l’area come la somma delle aree di tutti i transistori, ma poiché tutte le Li sono le stesse,
possiamo mettere in evidenza Lmin^2:

Calcoliamo l’area della NAND a 4 ingressi.


Per i PMOS abbiamo:

Abbiamo 4 percorsi possibili implementati con un solo transistor, quindi per avere una resistenza
equivalente pari a quella di base ogni transistor deve essere dimensionato pari al p dell’inverter di base.
Per gli NMOS della NAND:

L’area della NAND con 4 ingressi è quindi uguale:

Calcoliamo l’area della NOR a 4 ingressi.


Per i PMOS abbiamo 4 PMOS in serie:

Per l’NMOS abbiamo 4 NMOS in parallelo quindi possiamo prendere:

Nonostante la somiglianza delle due porte l’area della NOR è in generale molto più grande di quella NAND,
e queste differenza aumenta all’aumentare del numero degli ingressi. La differenza deriva dal fatto che è
sicuramente più conveniente mettere 4 NMOS in serie che 4 PMOS in serie, perché a parità di numero di
transistori nel percorso, il dimensionamento del PMOS dell’inverter di riferimento è più grande rispetto a
quello dell’NMOS. Una porta logica con percorsi lunghi di NMOS occupano in generale un’area più piccola
delle porte logiche con percorsi lunghi di PMOS.
Protezione delle scariche elettrostatiche
I condensatori MOSFET sono molto sensibili e possono essere facilmente danneggiati nel caso in cui
vengono depositate anche poche cariche sul gate.
Il terminale di gate è isolato da S e D e quindi la resistenza che si vede dal gate è pressoché infinita, inoltre
l’ossido di gate è molto sottile e quindi la capacità del gate è molto piccola.
Se ricordiamo il legame tra la tensione e la capacità, la tensione ai capi di un condensatore è pari alla carica
fratto la capacità ed essendo la capacità molto piccola è sufficiente una piccola carica per avere forti
tensioni e quindi elevati campi elettrici che possono portare a auna rottura dell’ossido di isolamento.
Dobbiamo quindi porre molte attenzione al terminale di gate senza toccarlo con le mani, è sufficiente che
siano poche cariche per essere sufficiente a determinare la rottura del transistore.
Se valutiamo un inverter CMOS dobbiamo fare in modo che il terminale di gate della nostra porta non
assuma mai un potenziale troppo elevato, e per farlo si introduce un circuito di protezione, composto da
due diodi e una resistenza, un diodo collegato tra il gate e VDD e un diodo collegato tra il gate e il ground.

La tensione di ingresso vien collegato al gate attraverso una resistenza.

Nel normale funzionamento della nostra porta Vin sarà compresa tra 0 e VDD, in questo range il diodo D1
avrà una tensione anodo-catodo:

Per quanto riguarda il diodo D2 avremo una tensione anodo-catodo sempre negativa e quindi anche qui:

Nel normale funzionamento i due diodi sono interdetti e quindi è come se non ci fossero e quindi si
comporta normalmente.
Se accade qualcosa che porta Vin a uscire dal normale funzionamento, se Vin prova a salire sopra VDD
quando arriva a VDD + Vy il diodo D1 entra in conduzione e blocca a questo valore la tensione di gate.

Lo stesso accade se la tensione Vin diventa minore o uguale di Vy, entra in conduzione D2 e la tensione Vg
rimane bloccata al valore -Vy.
I due diodi, in caso di funzionamento anomalo, entrano in conduzione e bloccano la tensione sul gate a due
valori di sicurezza che consentono di avere il corretto funzionamento dei transistori MOS e quindi sia il
NMOS che il PMOS non si rompono.
La resistenza R deve essere presente per limitare la corrente che scorre in D1 e D2 quando entrano in
conduzione, così da evitare che vi sia la rottura di D1 e D2.
Questo circuito di protezione non interviene in condizioni normali, mentre interviene in condizioni
anomale.
Abbiamo anche un effetto negativo, anche quando D1 e D2 sono spenti dobbiamo tenere conto che nei due
diodi scorrono delle correnti inverse di saturazione.
Ipotizzando che tutti e due abbiano la stessa caratteristica, se ingrandiamo la zona di saturazione inversa
questa corrente non è in realtà costante, anche se è dell’ordine di 10^-9 A.
Dobbiamo considerare che anche nel normale funzionamento i due diodi non funziona con la stessa
tensione ai loro capi, da un capo hanno entrambi Vin ma dall’altro uno è collegato a VDD e l’altro a ground.
I nostri diodi funzionano quindi in due punti di polarizzazione diversi e quindi con due correnti inverse di
saturazione diverse.

Se considero la corrente che scorre sulla resistenza Iin, avremo:

Accade che in presenza dei diodi di protezione, anche se apparentemente non danno contributi in termini
di tensione nella realtà abbiamo che i due diodi hanno una corrente inversa di saturazione diversa anche se
non fossero diversi, a maggior ragione se lo fossero, e quindi la nostra porta CMOS vista dall’esterno avrà
una corrente Iin assorbita dalla porta diversa da 0 e quindi non è più vero che la porta non assorbe
corrente.
Senza circuito di protezione in realtà assorbe una piccola corrente, ma dell’ordine del picoA, mentre in
presenza del circuito di protezione assorbe correnti dell’ordine del nanoA o del microA, e quindi non è più
trascurabile.
Questa corrente diversa da 0 porta problemi in termini di FAN-OUT.
Immaginiamo di avere un inverter CMOS che pilota in uscita un altro inverter dotato di circuito di
protezione e supponiamo di essere nel caso in cui sia attivo l’NMOS e quindi cerco di mantenere basso il
valore della tensione di uscita del primo inverter.

Indicando IDn la corrente che scorre nell’NMOS, senza circuito di protezione abbiamo:
Se invece attacco una porta dotata di circuito di protezione, accade che IDn è diversa da 0 perché la porta
ha una certa corrente.

La VDSn senza circuito di protezione è praticamente nulla, mentre se ho una certa corrente che scorre mi
trovo a lavorare in un punto in cui la VDSn è pari a Vk.
Questo se ho attaccato una singola porta.
Se al nodo attacco N porte questa cosa peggiore, perché ogni porta darà un contributo pari a Ik e la
tensione in uscita al mio inverter aumenta sempre di più e quindi avrà un livello massimo a cui può arrivare
VOLmax, altrimenti la tensione in uscita alla porta non viene più considerata come un livello logico basso.

Il fatto che le porte assorbano correnti mi pone un limite sul FAN-OUT.


Questi circuiti di protezione non verranno mai utilizzati nella configurazione in figura in porte logiche
combinatorie all’interno del circuito integrato, perché quelle porte non avendo la possibilità di venire in
contatto con l’esterno non avranno un circuito di protezione, il quale dovrà essere inserito alle porte in
contatto con oggetti esterni ma mai in quelle interne altrimenti avrei una forte limitazione al FAN-OUT di
una porta logica.
Vanno usati i circuiti di protezione solo nelle porte che hanno un contatto col mondo esterno.

Vediamo la possibilità di realizzare porte logiche con metodologie diverse.


Ho a disposizione due dispositivi, BJT e MOSFET, le prime sono ormai soppiantate come tecnologie mentre
la maggior parte delle porte logiche attuali sono realizzate usando i MOSFET.
Vediamo una tecnologia basata sull’utilizzo del transistore MOSFET ma che si basa su una metodologia
diversa per la realizzazione delle porte logiche.
Le porte CMOS sono piuttosto ingombranti, ogni volta bisogna duplicare il numero di transistori per via
della PDN e PUN, forniscono potenza dissipata statica nulla ma sono molto ingombranti.

Pass-Transistor Logic
L’implementazione vista finora delle porte logiche in tecnologia CMOS garantisce buone prestazioni, ma
richiede spesso un numero piuttosto elevato di transistori
Una logica alternativa è nota sotto il nome di “Pass Transistor Logic” perchè sfrutta dei transistori MOS
utilizzati come elementi di passo (interruttori) per la realizzazione di una logica a interruttori.
Questa è una famiglia logica in cui si utilizza ancora il MOSFET ma come interruttore, mentre però nella
logica complementare il MOSFET collega il nodo o a VDD o a ground, nel caso di questa metodologia i
MOSFET vengono usati come elemento di passo, posti nel percorso tra l’ingresso e l’uscita in serie.
Utilizzando in questo modo il MOSFET è possibile realizzare funzioni logiche in modo semplice con un
numero basso di MOSFET.
Se consideriamo la possibilità di disporre di interruttori ideali e vogliamo trasferire la tensione di ingresso A
all’uscita Y, prendiamo due interruttori controllati dalle variabili logiche B e C.
Se la variabile logica vale 0 l’interruttore è aperto mentre se vale 1 sarà chiuso.

L’uscita Y sarà uguale ad A quando entrambi gli interruttori risultano essere chiusi e quindi da un punto di
vista logica Y sarà l’and tra A, B e C.

Ho realizzato una AND a e tra ingressi usando solo due interruttori.


Se prendo due interruttori messi in parallelo ma entrambi in serie tra l’ingresso e l’uscita.

In questo modo realizziamo una funzione OR.

Abbiamo usato due semplici interruttori.


Usando questo tipo di logica in cui l’interruttore è in serie tra l’ingresso e l’uscita possiamo usare un
numero minore di transistori.

Quando si va a realizzare questa tipologia di logica dobbiamo stare attenti a un requisito fondamentale,
avendo inserito interruttori in serie al percorso del segnale dobbiamo stare attenti che non vi siano nodi
flottanti, ovvero che i vari nodi del circuito in ogni istante devono presentare un percorso a bassa resistenza
verso VDD o massa.
Se prendiamo due inverter in cascata indicando esplicitamente la capacità intrinseca, capacità del nodo di
gate del mio inverter e supponiamo di aver voluto realizzare una funzione logica tramite un interruttore
comandato dalla mia variabile binaria.
Se indichiamo con A l’uscita del primo stadio e C l’ingresso del secondo stadio, avremo:

Mentre se apro l’interruttore (B = 0) il nodo C non ha nessun percorso a bassa impedenza verso ground o
VDD e quindi succede che attraverso il condensatore intrinseco se vc = 0 rimane a 0 e non succede nulla,
mentre se Vc = VDD il condensatore è inizialmente carico mentre se lasciato a sé stesso non mantiene la
sua tensione per un tempo indefinito, abbiamo delle perdite di carica nel tempo e quindi si scarica
lentamente e quindi la tensione in questo nodo assume un valore indefinito in quanto a seconda della
durata dell’intervallo di tempo in cui teniamo l’interruttore aperto lì possiamo avere VDD o per tanto
tempo possiamo anche avere 0. Ho un comportamento non predicibile.
Dobbiamo modificare la porta in modo da avere due interruttori, uno comandato da B e uno dal suo
negato.

Quando B = 1 il comportamento è lo stesso del precedente, l’ingresso del secondo inverter coincide con
l’uscita del primo inverter.
Quando l’interruttore è aperto B = 0, e l’ingresso del secondo inverter viene forzato a ground.
Ho un comportamento predicibile che mi dice che a seconda del valore di B.

Lo devo fare per non avere nodi flottanti.

Interruttore NMOS: carica di un condensatore


Vediamo se riusciamo a realizzare il mio interruttore ideale con un NMOS e quindi dobbiamo vedere se
intanto sono in grado di caricare un condensatore.
Supponiamo di avere l’ingresso e di posizionare in serie al segnale il MOSFET con in uscita un condensatore.
Prendiamo una tensione Vin di ingresso e vediamo se questo circuito è equivalente ad un interruttore
ideale.
Vediamo se riusciamo a realizzarlo con un NMOS, integrato, e quindi se siamo in grado di caricare un
condensatore con l’ipotesi di condensatore inizialmente scarico.
Immaginiamo di avere una tensione di ingresso che passa da 0 a VDD.

Se voglio che il MOSFET conduca dobbiamo avere una tensione sul gate che deve essere portata sul livello
alto.
In un NMOS la corrente scorre dal drain verso il source, tramite Vin vogliamo caricare il condensatore e
quindi se la corrente deve scorrere nel verso in figura i terminali di Drain e Source saranno quelli in figura.
Il MOSFET è perfettamente simmetrico in condizioni integrate.
Se il transistore funziona in che condizioni funziona?

All’istante t = 0+ ho:

Se abbiamo detto che il condensatore era scarico VS = 0.

Il MOSFET conduce in queste condizioni ma in che zona si trova?


Valutiamo VDS:

All’istante 0+ il MOSFET entra in conduzione ed è saturo e quindi condurrà una corrente che permetta al
condensatore di caricarsi.
Vediamo se il condensatore avrà una tensione ai suoi capi pari a VDD alla fine del transitorio.

Non posso dire quando vale VS, che sarà sicuramente != 0 perché coincide con la Vc, tensione ai capi del
condensatore.
Può esserci una situazione in cui smette di condurre.
La tensione di drain è però uguale alla tensione di gate a ogni valore di t e quindi ciò significa:
Quindi la condizione, essendo VDS sempre uguale a VGS:

Possiamo quindi dire che se il MOS conduce allora è sicuramente saturo.


Per questa configurazione per cui VD viene mantenuto pari a VG se il MOS conduce non può andare mai in
zona triodo.
Può esserci una condizione in cui smette di condurre, perché se VS aumenta, VGS può non essere maggiore
di VT.
Se il MOS è saturo posso dire che essendo VDS = VGS.

Sulle caratteristiche ciò significa che inizialmente VGS = VDD e poi man mano che si carica il condensatore
VS aumenta e VGS diminuisce, ma abbiamo che su questo piano l’equazione indicata sopra non è alto che
una parabola traslata in VT.

I punti di funzionamento del mio dispositivo sono i punti che soddisfano entrambe le caratteristiche, e
posso identificarli come l’intersezione nel tempo tra le due caratteristiche.
Man mano che scorre il tempo VGS diminuisce e il punto di funzionamento si sposta lungo la curva fino ad
arrivate fino al punto VT e poi il transistore smette di condurre.

Il valore VDS minimo è VT e quindi la tensione sul condensatore è data da:

Ma se VDS non può scendere sotto VT ne ricavo che la massima tensione che posso avere sul condensatore:

In questa configurazione sul mio condensatore non posso arrivare una tensione esattamente pari a VDD
finito il transitorio perché il MOSFET a un certo punto smette di condurre e quindi non può far caricare il
condensatore, e smette di condurre quando VDS = VT.
VDS diminuisce e vorrei diventasse 0 per avere VC = VDD, ma non può scendere sotto VT.
Se facciamo un grafico temporale della tensione di uscita Vc in funzione del tempo, abbiamo che vorrei
fosse uguale a VDD finito il transitorio ma nella realtà parte da 0 e sale ma si blocca a un valore pari a VDD –
VT.
Ho una degenerazione del livello logico visto che il livello logico alto non è trasmesso completamente.
Questo problema è allargato dal fatto che nei MOSFET integrati il terminale di body è collegato a ground e
quindi la tensione VT è diversa da quella che ho in condizioni normali, ho l’effetto body che dice che se
Source e Body non sono allo stesso potenziale, la tensione di soglia che devo considerare è:

VT0 più una certa funzione che dipende da VSB, la tensione tra Source e Bulk, la tensione di soglia risulta
essere maggiore di Vt0 e quindi il problema di degradazione del livello logico è peggiore.
Un transistore MOSFET non è in grado di trasmettere un livello logico alto pieno ma lo trasmette solo
parzialmente.

Interruttore NMOS: scarica di un condensatore


Vediamo se l’NMOS è in grado di scaricare il condensatore ripetendo l’analisi.
Stavolta avremo il condensatore inizialmente carico e devo scaricarlo attraverso l’ingresso, che viene
portato a 0 e la corrente in questo caso deve scorrere nel verso in figura.

In questa configurazione cambia chi è il drain e chi è il source.


Essendo un NMOS la corrente deve scorrere tra drain e source.

Facciamo l’analisi con il source posto a 0 e il gate a VDD.


All’istante t=0+ ho:

Adesso abbiamo il MOSFET in conduzione e saturo:


Comincia a scaricare il condensatore e vediamo se questo vale anche per gli istanti temporali successivi.
La tensione di source rimane fissa e pari a 0, la piloto io, e la tensione di gate pure e quindi:

La tensione di drain all’inizio è elevata ma poi inizia a diminuire.

Per quanto riguarda le caratteristiche, il funzionamento è il seguente:

Funzione a VGS costante e pari a VDD e quindi la caratteristica è unica.


Il punto di funzionamento, all’istante t = 0 pari a VDD, poi si sposterà lungo la caratteristica all’aumentare
del tempo e arriverà a 0.
Dal punto di vista della tensione di uscita del nostro transistore abbiamo che all’inizio avremo VDD e poi
man mano che passa il tempo la tensione diminuisce e dopo un certo intervallo di tempo arriverà a 0.
Nel caso dell’NMOS dopo un certo intervallo di tempo riesco a scaricare completamente il nostro
condensatore e quindi la tensione di uscita dopo un certo intervallo di tempo sarà pari a quella di ingresso e
quindi l’NMOS trasmette il livello logico 0 pieno.

L’NMOS non è in grado di trasmettere il livello logico 1 pieno ma lo è per il livello logico 0.
Non è un ottimo candidato, vediamo invece il PMOS.
Interruttore PMOS: carica di un condensatore

Attivo il PMOS applicando tensione nulla sul terminale di gate e la corrente per caricare il condensatore
deve scorrere come in figura.
Ricordando che nel PMOS la corrente va dal source al drain abbiamo il source a sinistra e il drain a destra.
Nel caso di PMOS VT < 0.
Inizialmente avremo:

All’istante t = 0+, abbiamo:

All’inizio:

In che zona si trova?

VT è negativo e quindi -VT > 0 e quindi vale questa condizione.

Il MOS entra in conduzione e inizia a caricare il mio condensatore.

Cambia VD != 0 perché coincide con Vc che inizierà a crescere.

Non sarà sempre saturo però, lo sarà dipendentemente dalla tensione del drain che sta cambiando:

Se valutiamo le caratteristiche, ora siamo nel terzo quadrante, dobbiamo considerare una caratteristica,
quella per VGS = - VDD.
In questa caratteristica il punto di funzionamento si sposta in questo modo.
L’andamento della tensione Vc sarà il seguente:

Per cui posso dire che il PMOS trasmette il livello logico 1 pieno, risolvendo il problema del livello logico 1.

Interruttore PMOS: scarica di un condensatore


La corrente deve scorre nel verso in figura e quindi individuiamo Source e Drain.

Abbiamo all’istante t = 0+:

Quindi:

Sono quindi nelle condizioni che se:


Però il PMOS smette di condurre se:

Il mio PMOS smette di condurre quando Vo < - VT.


Graficamente ho le varie caratteristiche e ho il discorso della saturazione che mi permette di considerare
anche la curva di saturazione che parte dal valore di VT negativo e quindi i miei punti di lavoro:

Quindi l’andamento di Vo in funzione del tempo nella scarica fa sì che parto da VDD ma mi fermo a un
valore positivo pari a -VT e quindi il PMOS non trasmette il livello logico 0 pieno.

Il transistore NMOS trasmette bene un livello logico basso mentre il PMOS trasmette bene un livello logico
alto e quindi nessuno die due singolarmente riesce a funzionare come un interruttore ideale.
Pass-gate CMOS
La soluzione ottimale è quella di combinare entrambi i transistori, soluzione sotto il nome di Pass-gate
CMOS, costituita dal parallelo di un NMOS e un PMOS, comandati dalla variabile logica e dalla variabile
logica complementare.

Se applico un condensatore in uscita, se in ingresso avrà una tensione alta associata al valore logico 1
avremo che all’inizio, ponendo VC = VDD e VC negato a 0V quindi.
La corrente passerà attraverso entrambi i MOSFET e comincerà a caricare il condensatore e quando l’NMOS
smetterà di condurre perché arrivo a VDD – VT il PMOS continuerà a condurre e porterà il condensatore a
VDD.

Dualmente durante la scarica del condensatore, arrivati sul condensatore a una tensione pari al modulo di
VT, il PMOS smetterà di condurre ma l’NMOS ancora in conduzione porterà alla scarica totale del
condensatore. L’altro transistore completerà quindi la carica o la scarica del condensatore.
Questa soluzione è il metodo che ci permette di schematizzare un interruttore tra la Vin e la Vo, tensione di
uscita nel caso più ideale possibile.

Vediamo come realizzare alcune funzioni logiche molto semplicemente con questo circuito e come il
numero di MOSFET sarà minore della logica CMOS.
Multiplexer 2-a-1
Realizziamo la seguente funzione logica:

Posso schematizzare la mia funzione logica in questo modo:

Ho un multiplexer in quanto l’uscita Y valrà A se C = 1 mentre valrà B se C = 0.


Con la logica CMOS avrei bisogno di 2x(4+3) = 14 transistori.
Con la pass-transistor logic implementando i due interruttori con la pass-gate, la variabile di controllo è
quella applicata all’NMOS mentre al PMOS devo collegarci C negato.
Nell’altro interruttore abbiamo come variabile di comando C negato e quindi deve essere applicato
all’NMOS mentre sul PMOS dobbiamo avere C.
Abbiamo bisogno di 6 soli transistori, tra cui 4 per le due pass-gate e due per l’inverter che mi permette di
avere C negato.

OR esclusivo (XOR)
La funzione logica XOR:

Nella logica CMOS abbiamo che il numero di MOSFET richiesti sarebbe pari a 2x(4+2) = 12.
Utilizzando la pass-transistor logic supponendo che A sia il nostro segnale e che B sia quello che comanda
l’interruttore, avremo:
Ho bisogno di due pass-gate e per implementarlo ho bisogno di due inverter per generare la variabile A
negato e B negato e poi la pass-gate di sopra realizza l’interruttore superiore e quella sotto realizza
l’interruttore inferiore.

Realizzo la stessa funzione logica con solo 8 MOSFET, risparmiando quindi 4 MOSFET.
Utilizzando un processo di tipo CMOS, che mette a disposizione un transistore NMOS e un transistore PMOS
con caratteristiche complementari (stessa tensione di soglia e dimensionamento tale da renderli
complementari) possiamo realizzare delle famiglie logiche.
Abbiamo la famiglia logica MOS complementare, la famiglia logica pass-transistor ma possiamo
implementare anche altre famiglie logiche.

Famiglie logiche bipolari


Vediamo le famiglie logiche bipolari partendo dall’elemento base che è il transistore bipolare e vedendo la
possibilità di realizzare un inverter. Attualmente sono state soppiantate dall’impiego delle famiglie logiche
CMOS.
I diodi non sono in grado di realizzarlo e senza l’inverter non riusciamo a realizzare funzioni logiche
complesse.
Si deve tener conto che sono diversi i livelli di tensione nella famiglia logica e quindi i livelli di tensione
associati alle variabile logiche.
Con famiglie logiche diverse i livelli logici assumo valori diversi e quindi se devono colloquiare tra di loro
vanno interfacciati tra di loro si devono usare opportuni circuiti, che di solito sono dei traslatori di livello di
tensione.
Le famiglie logiche bipolari hanno come circuito di base l’inverter realizzato con un BJT.
L’ingresso è costituito dalla base sulla quale è applicata la variabile logica A con una resistenza e il collettore
è collegato a VCC tramite una resistenza mentre la variabile logica di uscita viene prelevata sul collettore.
Sotto opportune condizioni questo circuito si comporta come un inverter.
Nel caso in cui:

la tensione che applico sulla base non è in grado di portare in polarizzazione diretta la giunzione base-
emettitore, posso ipotizzare che il BJT sia OFF, quindi non scorre corrente e ciò significa che IC = 0 e quindi
non avendo caduta su RC abbiamo Vo = VCC, valore tipico 5V.
Se Vin è piccola la tensione di uscita è alta.
Se invece applico una tensione di ingresso:

Possiamo ipotizzare che il BJT sia in conduzione ma se scelgo opportunamente i valori di Rb e Rc posso fare
in modo che il BJT sia in conduzione ma che sia anche saturo.
Se è in saturazione possiamo scrivere quella relazione sulla VCE.
Se la Vin è a un valore alto se il mio transistore è in saturazione l’uscita avrà un valore molto piccolo, ma
associando il valore logico 0 a 0.2V e 1 a 5V l’oggetto si comporta come un inverter.
Quando il BJT è in conduzione posso fare in modo che sia in saturazione come segue.
Disegnando la retta di carico, determinata dal circuito di uscita:

Le intersezioni saranno VCC e VCC/RC.


La corrente IB che scorre nel transistore:

Se scelgo VCC e RB in modo che IB5 sia il valore VCC – Vy / RB e se scelgo RC in modo che quella in figura sia
la retta di carico ottengo che il punto di lavoro sarà quel punto a cui corrisponde la Vcesat.
Il mio BJT funziona come inverter a patto che scelgo RB e RC, ma anche VCC alla fine, in modo tale che
quando il BJT entra in conduzione si trova a lavorare in saturazione.
Tipico esempio pratico è il seguente:

La VTC che ci permette di riportare vo in funzione di vi, ci dice che fino a quando vi < VIL, pari a Vy, la
tensione di uscita rimane a VOH praticamente pari a VCC, dopodiché il transistore entra in conduzione e
abbastanza velocemente, per una tensione di ingresso pari a VIH il transistore va in saturazione e l’uscita va
al valore di VOL.
Abbiamo una zona di interdizione e poi un breve tratto in cui passa in zona attiva diretta e infine in
saturazione.

Calcoliamo il margine di rumore sul livello alto e sul livello basso:

Quando ragioniamo in termini di margini di rumore ci piacerebbe averli simmetrici così da avere un
comportamento migliore nelle porte logiche, mentre qui la zona di interdizione è molto spostata verso
sinistra e quindi il margine NML è piccolo, svantaggio di queste porte logiche.
Sono state comunque implementate nella tecnologia RTL.
RTL (Resistor Transistor Logic)
In questa famiglia l’inverter viene collegato mediante delle resistenze per creare delle porte logiche.
Prendiamo l’esempio di un NOR a due ingressi.

La tensione di uscita diventa bassa quando almeno uno dei due transistori va in conduzione, e per averlo in
conduzione devo avere delle variabili logiche alte.
Altrimenti se entrambi sono a 0 ho un uscita a un livello alto.
Abbiamo però diverse problematiche:
- margini di rumore diversi tra di loro e NML molto piccolo, portando problematiche sul livello basso
- dissipazione di potenza statica non trascurabile. Dissipo infatti potenza nella resistenza RC, quando
almeno uno dei due BJT è in conduzione attraverso RC ci passa una corrente di collettore
staticamente che non è trascurabile (VCC - VCEsat /RC quindi quasi pari a VCC/RC), e rimane finchè
uno dei due è acceso.
- Tempo di commutazione dal livello basso al livello alto molto lungo (tpLH) e il problema si ha
perchè quando il BJT va in saturazione entrambe le giunzioni sono polarizzate in diretta e quindi
entrambe le giunzioni stanno iniettando nella base un’elevata quantità di portatori ma per il
funzionamento in ambito digitale dalla saturazione dobbiamo spegnere il BJT, renderlo interdetto e
quindi si deve portare via dalla base questi portatori che vi si sono accumulati e rimuovere le
cariche iniettate dalla base richiede un certo tempo. E’ richiesto un certo tempo per far transitare
un BJT dalla condizione di saturazione a quella di interdizione. Per spegnere un BJT in saturazione
richiede un certo tempo.
- FAN-OUT piccolo. Quando il BJT è saturo sulla RB scorre una corrente IBsat di saturazione e per
poterlo mandare in saturazione devo fornire una corrente di base.
Se devo pilotare un inverter all’uscita posso collegare un numero di inverter in cascata tale da tener
conto che l’uscita della porta deve essere in grado di fornire N volte la corrente di saturazione degli
stadi a valle.
Mentre nelle porte a tecnologia CMOS l’ingresso è costituito dal gate che non assorbe corrente ora
quando il BJT viene portato in saturazione questo assorbe una corrente pari a IBsat che non è
trascurabile e ciò porta dei limiti al numero di porte che sono in grado di pilotare.
Se ho N stadi devo fornire una corrente pari a N * IBsat.

DTL (Diode Transistor Logic)


Si è cercato di migliorare il comportamento utilizzando come prima soluzione dei diodi oltre a delle
resistenze.
Sono stati introdotti questi due diodi in serie e per mandare in conduzione Q1 devo applicare una tensione
Vk non solo pari a Vy ma tale che mi permetta di mandare in conduzione Q1, ho tre giunzioni in serie e
quindi si richiede Vk = 2.1V.
L’inserimento di questi diodi in serie col segnale hanno lo scopo di portare la caratteristica verso destra,
facendo aumentare il margine di rumore.
In ingresso è stato scelto di utilizzare due diodi che posizionati in quel modo svolgono una funzione AND di
A e B, infatti K è a una tensione alta solo se sono interdetti, e questi portano una riduzione della corrente di
ingresso IBsat che viene fornita non più dagli ingressi ma la corrente che viene assorbita in questo caso è
solo la corrente inversa di saturazione di questi due diodi, quando sono interdetti ho Vcc alto che fornisce la
corrente di saturazione e manda in saturazione Q1 e l’uscita risulta essere bassa.
Quando sono entrambi interdetti A & B l’uscita è bassa e quindi la funzione logica è quindi in effetti una
NAND. Quando uno dei due diodi va in conduzione ci passerà una corrente sui diodi ma il transistore Q1
sarà interdetto mentre la corrente inversa di saturazione non viene più fornita dalle porte logiche A e B ma
solo da VCC e riduco quindi la corrente assorbita.
Un’altra modifica consiste nella resistenza collegata tra la base e -VBB che consente al BJT di uscire
velocemente dalla saturazione, quando Vk si abbassa a Vy e non è più in grado di mandare in conduzione
Q1 e quindi si deve interdire l’eccesso di carica nella base viene portata via dalla resistenza e quindi
velocizza l’uscita dalla saturazione.
Questi miglioramenti consentono di avere caratteristiche migliori della RTL.

TTL (transistor Transistor Logic)


Un problema che permane è la lentezza, relativo a far uscire Q1 dalla saturazione, e il problema è stato
migliorato ulteriormente con la famiglia successiva con cui i diodi sono sostituiti da un transistore (famiglia
TTL), i due diodi che notiamo sono due diodi con posizione back-to-back, che corrisponde quindi a un BJT:

Quindi si è pensati di sostituirlo con un BJT.


La NAND venne realizzata con elemento di base l’inverter TTL:
Al nostro inverter portiamo il ingresso il transistore Q1 collegato nel modo in figura.
Vediamo se adesso il circuito è in grado di funzionare come un inverter.
Se staticamente funziona come un inverter vediamo come mai questa soluzione è molto più efficiente in
termini di tempi di uscita dalla saturazione.
Ipotizziamo di avere in ingresso un valore basso, quindi Va = 0.2V.
Facciamo un’ipotesi su Q1, essendo la tensione sull’emettitore bassa e la base è collegata tramite una
resistenza alla tensione più alta del circuito e quindi una buona ipotesi da fare è quella di avere la giunzione
BE polarizzata in diretta.

La giunzione BC, essendo B a una tensione molto alta (dipenderà dalla corrente che scorre in R) però la
tensione sul collettore non può avere un valore molto alto perché al limite se Q1 è in conduzione potrà
valere 0.7V, posso quindi ipotizzare che anche questa giunzione sia polarizzata in diretta.

Se queste due ipotesi sono verificate ciò significa che Q1 è saturo.


Se Q1 è saturo dovrebbe scorrervi una corrente nel verso in figura IC1 != 0, corrente di saturazione, che è la
corrente che deve uscire dalla base di Q2.

Quando Q2 conduce la corrente di base è entrante, non può essere uscente, e quindi la corrente uscente da
un transistore NPN può essere solo molto piccola.
Non posso avere in modo statico una corrente elevata che esce dalla base.
Ciò significa che Q1 è saturo ma sta funzionando con una IC1 circa nulla e quindi la VCEsat è molto piccola,
la mia retta di carico è tale che la VCEsat è molto piccola.

Ma la tensione sulla base VB2 è pari a:


Quindi ciò ci porta a dire che:

Questa tensione non è in grado di farmi condurre il transistore Q2.


Ciò implica che:

Se A = 0 allora Y = 1.
Dovrei verificare le ipotesi ma scegliendo Rc e R possono fare in modo che Q2 è interdetto e quindi l’uscita
sia alta.
Nel caso in cui la tensione VA = 5V (A = 1):

L’emettitore è alla tensione più alta presente nel circuito e quindi posso fare l’ipotesi che la giunzione BE sia
polarizzata in inversa.
La base è a una tensione più bassa rispetto all’emettitore.
Per la giunzione BC la base è comunque collegata a VCC tramite R e quindi essendo la tensione VC non
troppo elevata.
Quindi posso ipotizzare:

Ciò significa che la corrente ora scorre in verso opposto e le due correnti si scambiano di ruolo, quindi
avremo BR*IB e (BR+1)*IB.
Solo che BR è molto piccolo, in questo caso scelto pari a:

Quasi tutta la corrente IB viene fatta scorrere come corrente di uscita di collettore che viene iniettata in Q2:

E questa viene fatta in modo che sia pari alla Ib di saturazione di Q1.
Inietto una corrente sufficientemente grande da mandare in saturazione Q2, quindi:

Il funzionamento statico dell’inverter lo ho ancora.


In termini di corrente assorbita uno dei problemi era che quando Q2 veniva mandato in saturazione lui
assorbiva una corrente di saturazione non trascurabile mentre qui se indichiamo Iin la corrente assorbita
quando Q2 è saturo, queste sarà pari a:

Quindi la corrente Iin risulta essere piccola per effetto del Br, grazie al comportamento del BJT la corrente
assorbita risulta essere molto piccola quando devo mandare Q2 in saturazione, vantaggio che però avevo
già coi diodi.
La grande utilità si vede però nel transitorio, nel transitorio devo spegnere Q2 e quindi Q2 da saturo deve
diventare interdetto e quindi vedo se riesco a diminuire i tempi per portare Q2 da saturo a interdetto.
All’istante:

Disegniamo le tensioni che abbiamo in gioco:

Abbiamo 5V sul nodo A visto che A = 1,sulla base 1.4V e sul collettore 0.7V.
Con queste tre tensioni abbiamo che Q2 è saturo e quindi in uscita abbiamo 0.2V.
Supponiamo che avvenga poi la commutazione dell’ingresso e quindi all’istante t = 0+ avremo A = 0.
Dobbiamo avere idealmente Y che va a 1 e quindi Q2 si dovrebbe interdire, all’ingresso A è andato a 0V, la
giunzione è polarizzata in diretta e quindi abbiamo sulla base 0.9V visto che VBE = 0.7V.
Il problema è che Q2 era saturo e tende a rimanere in saturazione e quindi all’istante 0+ la tensione sulla
base di Q2 tende a rimanere a 0.7V.
Il problema è che VC1 è ancora a 0.7V e ciò fa sì che Q2 non si riesca a spegnere.
Ma guardando le tre tensioni abbiamo che:

All’istante t = 0+, Q1 si trova in zona attiva diretta.

Ma in zona attiva diretta il BJT riesce a condurre a una corrente di collettore non trascurabile, con Bf
almeno dell’ordine di 50 e quindi durante il transitorio riesco a condurre una corrente molto grande che mi
svuota velocemente i portatori sulla base di Q2 e quindi quei portatori che mantenevano a 0.7 quella
tensione, quindi nel transitorio la presenta di Q1 è fondamentale perché mandandolo temporaneamente in
ZAD, svuotati i portatori diventa saturo infatti e quindi la tensione 0.7V a regime passa a 0.3V.
A regime avremo quindi Q1 saturo e Q2 interdetto.
Nel transitorio da 0.7V passa a 0.3V e quindi riesce a portare in interdizione Q2.

Nel transitorio ho diminuito fortemente i tempi di commutazione.

Configurazione Totem-Pole
Nelle famiglie TTL standard l’ultimo problema che dobbiamo risolvere riguarda come viene caricata e
scaricata la capacità equivalente.
Troviamo una certa simmetrica perché quando devo caricare la capacità la carica avviene lungo il percorso
in figura attraverso la resistenza RC:
Mentre nel caso di scarica questa avviene attraverso il BJT, producendo un comportamento asimmetrico.
Quando l’uscita deve essere portata al livello basso lo faccio attraverso il BJT viceversa con la resistenza e
quindi i tempi di commutazione sono diversi uno dall’altro.
Si è pensato a fare in modo che la carica e scarica avvenga nello stesso modo.
Si usano due BJT Q1 e Q2 pilotati in modo uguale e opposto, Q2 deve portare l’uscita al livello basso mentre
Q1 deve essere utilizzato quando devo portare l’uscita al livello alto.
Qui le cose sono complementari, se funziona il circuito di sopra carico il condensatore tramite la corrente di
emettitore mentre la scarica quando funziona solo Q2 devo scaricare il condensatore di uscita tramite Q2.

Carico il condensatore tramite Q1 e scarico il condensatore tramite Q2.


Devo garantire che Q1 e Q2 funzionano in opposizione di fase, ovvero che non funzionino
contemporaneamente.
Questo tipo di configurazione è detta Totem-Pole, o soluzione a Pull-Up attivo, infatti qui l’elemento di
PULL-UP è attivo mentre prima era una resistenza (passivo).
Andiamo a realizzare quindi una porta NAND TTL, in cui l’ingresso A viene collegato all’emettitore di un BJT
e il collettore venne collegato alla base di un altro BJT.
Abbiamo quindi un transistore Q1 in ingresso, Q2 indicato come sfasatore di fase visto e i due transistori di
uscita Q3 e Q4 fanno da totem-pole.
Lo sfasatore di fase (phase splitter) è detto così perché i segnali che comandano l’uscita di Q3 e Q4 sono
quelli sul collettore e emettitore e questi due segnali sono in opposizione di fase, quando uno è basso l’altro
è alto e viceversa, quindi o funziona D4 o D3.
Il diodo inserito tra l’emettitore di Q4 e il collettore di Q3 è un ulteriore protezione che garantiscono che Q3
e Q4 non siano entrambi in conduzione.
Quindi questa è la NAND TTL a più ingressi e il transistore Q1 è un BJT a multi-emettitore, viene modificato
in modo tale da avere più ingressi. Questa ha risolto molti dei problemi visti prima.
Problematiche di questa porta sono relative al fatto che i transistori di uscita, in particolare Q3, vengono
portati in saturazione per ottenere l’uscita bassa e quindi c’è il problema di farlo uscire velocemente dalla
saturazione.
Per ovviare a questo problema è stata introdotta una modifica ai transistori con l’introduzione del
transistore Schottky:

Un diodo Schottky non è costituito da un semiconduttore drogato p e uno drogato n ma è costituito da un


metallo e un semiconduttore, la giunzione P/N è ottenuta facendo una giunzione tra un metallo e il
semiconduttore.
Anche in questo caso si ottiene una barriera di potenziale e una differenza si ha nella tensione di
funzionamento in quanto questa tensione Vy è minore di quelli di diodi a semiconduttore, ovvero
dell’ordine di 0.5V.
Questo diodo viene posizionato tra la base e il collettore e quando il transistore funziona in ZAD non dà
alcun contributo perchè la giunzione BC è polarizzato in inversa e quindi lo è anche il diodo Shottky.
Quando il transistore viene portato in saturazione anche la giunzione BC è polarizzata in diretta, a un certo
punto entra in conduzione il diodo Schottky, che è in parallelo alla giunzione, e va a fissare il potenziale tra
la base e il collettore a un valore di 0.5V, quindi il potenziale non può aumentare oltre la tensione Vy del
diodo, la caduta BC è quindi pari a 0.5V.
Quando Q è in saturazione:

La VCB assume come valore massimo –0.5 mentre la VBEmax è dell’ordine di 0.8 se uso correnti di
saturazione elevata.
Quindi la VCE può scendere al minimo a 0.3V.
Si impedisce alla VCE del transistore di scendere sotto 0.3V, non è consentito al transistore di entrare in
saturazione profonda dove avrei una grande iniezione di portatori in base bensì si limita il numero di
portatori che possono essere iniettati in base che poi devo rimuovere quando voglio andare a spegnere il
transistore. Si diminuiscono così i tempi per poterlo portare fuori dalla saturazione.
In questo caso il valore di tensione associato al livello basso diventa 0.3V, ho aumentato un po’ il valore di
tensione ma ho guadagnato in termini di commutazione.
Un transistore in cui si usa un diodo Schottky tra B e E è detto Transistore Schottky, e assume un simbolo
che ricorda la S di Schottky.
Si ottiene una NAND di tipo TTL Schottky che presenta migliore in tempi di commutazione.
Sono nate successivamente diverse famiglie a tipologia bipolare, dove la famiglia TTL standard è la 74 e ha
come caratteristiche quelle in figura (la NAND assume come sigla 7400).

Se sostituisco i transistori con quelli Schottky ottengo la TTLS (74S) che hanno un grande vantaggio in
termini di tempi di commutazione, e anche se si aumenta la potenza permette di avere un PDP minore.
L’evoluzione successiva ha cercato di diminuire la potenza con la TTL-LS (TTL Low Power Schottky)
aumentando però i tempi di commutazione. I due sono infatti in contrasto l’uno con l’altro.
La TTL-ALS (TTL Advanced Low Power Schottky) ha fatto diminuire ulteriormente la potenza e anche I tempi
di commutazione.
Introducendo la tecnologia basata su CMOS sono nati dei problemi di compatibilità con la necessità di
sostituire tutti i componenti digitali sviluppati con la famiglia TTL.
E’ nata la famiglia 74HC realizzata in tecnologica CMOS con circuiti però perfettamente compatibili che ha
portato a un abbattimento enorme della potenza dissipata sfruttando il fatto che il CMOS ha una potenza
dissipata quasi nulla.
Questo ha portato all’obsolescenza della famiglia TTL.

ECL (Emitter-Coupled Logic)


L’unica tipologia di porte logiche sviluppate con il BJT sopravvissute per tanto tempo sono le famiglie
logiche bipolari ECL (Emitter-Coupled Logic) per la loro velocità di funzionamento, anche se caratterizzate
da consumi di potenza non trascurabili.
Si basa sul fatto che se il problema dei tempi di commutazione è legato al fatto che il BJT deve essere
portato in saturazione così da ottenere la codifica del livello basso, cerco di evitare che i BJT possano
andare in saturazione.
Ho due rami perfettamente identici tra di loro, dopo i quali ho un generatore di corrente costante e un
interruttore che può andare a contattare a sinistra o a destra e fa in modo che il generatore di corrente
costante (collegato a -VEE) venga deviato a sinistra o a destra.

Se considero la tensione di uscita su uno dei due rami succede che questa tensione può assumere solo due
valori. Se assumo che l’interruttore sia comandato da una variabile A e che la posizione dello 0 e 1 è quella
in figura, se A = 1 tutta la corrente viene fatta scorrere sul ramo di destra, mentre se A = 0 e la corrente
passa tutta sul ramo di sinistra.
La tensione vo2 assume un valore alto quando A = 0, mentre un valore basso di tensione quando A = 1.
Tutto sta poi ad associare ai valori di tensione un valore logico opportuno.
In tecnologia bipolare si sceglie come tensione di riferimento, per motivi di disturbi, la tensione nulla.
Nei due rami ho una resistenza e un BJT, i quali hanno l’emettitore accoppiati insieme e collegati a un
generatore di corrente costante IEE collegato a una tensione negativa pari a -VEE.
Le uscite della mia porta sono quelle in figura.

Se indichiamo con Vin la tensione applicato sulla base di Q1 mentre sulla base di Q2 applichiamo una
tensione di riferimento costante.
Scegliendo opportunamente Vin è possibile far scorrere IEE tutta nel ramo di sinistra o di destra.
Facciamo un’ipotesi di lavoro:

Supponiamo di poterli polarizzare opportunamente in modo da farli stare sempre in ZAD.


Se sono in ZAD:

Il rapporto tra le due correnti valrà, supponendo che Is siano le stesse:

Ed esplicitando VBE1 e VBE2 e considerando che E1 e E2 sono poste allo stesso potenziale otteniamo
l’espressione indicata.
Il rapporto tra le due correnti dipende in modo esponenziale dalla differenza tra Vin e Vref divisa per Vt.
Se prendiamo dei valori di esempio:

Se applico una differenza di potenziale positiva di soli 300mV la corrente di collettore di Q1 è 10^5 più
grande di quella di Q2.
Applicando piccole differenze tra Vin e Vref spostiamo tutta la corrente tra il transistore Q1 e Q2.

In particolare abbiamo che se:

Quasi tutta la corrente passa sul ramo di sinistra.


Viceversa se:

E’ Ic2 ad essere circa pari a IEE. Quasi tutta la corrente passa sul ramo di destra.
A seconda del segno della differenza tra vin e vref si riesce a far andare quasi tutta la corrente verso destra
o verso sinistra.
Nell’altro ramo un po’ di corrente ci scorre comunque, perché il transistore Q2 è mantenuto in ZAD con una
corrente molto piccola, di fatto trascurabile rispetto a quella nell’altro ramo.
I due valori di tensione in cui può funzionare vo2 sono i seguenti:

Quando ic2 = 0 allora vo2 = 0, non ho infatti caduta di potenziale.


Quando ic2 è circa uguale a IEE la vo2:

avremo che:

L’uscita è nulla quando vo2 = 0 o negativa quando vo2 < 0.


Devo decidere a cosa associare questi due valori di tensione.
Nella logica ECL il valore 0 è associato al valore 1, mentre il valore negativo -Rc*IEE è associato al valore
logico 0.
Non si può interfacciare una famiglia logica ECL con una TTL o CMOS per le sue tensioni negative ma si deve
applicare uno shift di tensioni.
Il vantaggio è che Q1 e Q2 sono sempre in zona attiva diretta e uno funziona con tanta corrente e uno con
poca e la commutazione avviene abbassando la corrente di uno e aumentando quella dell’altro.
Abbiamo però un altro vantaggio ECL.
Supponiamo di duplicare il transistore di ingresso a cui associo due variabili logiche e dopodichè abbiamo il
solito nostro generatore di corrente integrato e selezioniamo le due uscite.
Associamo alla tensione vo2 la variabile logica y e alla tensione vo1 la variabile logica x.
Vogliamo costruirci la tabella di verità di questo oggetto.

Supponiamo di avere A = 1 e B = 1, tensioni elevate e tali da mandare in conduzione Q1 e Q2 e in queste


condizioni tutta la corrente IEE passa sul ramo di sinistra.

Non passa corrente a destra.


Ho quindi un livello logico basso per la variabile x mentre non passa corrente su Q3 quindi lo 0 è associato
alla variabile logica alta.
Nel caso in cui uno dei due conduca da solo si ha la stessa situazione, infatti se A = 1:

Mentre se B = 1:

Se nessuno dei due è in conduzione, quello che condurrà è Q3, e quindi:

L’uscita x va a 1 e l’uscita y va a 0.
Il segnale X non sarà altro che la NOR tra A e B, mentre l’uscita Y è la OR tra A e B.
La stessa porta è in grado di fornirmi una funzione logica e anche la sua complementare, sono disponibili sia
l’uscita che la sua complementare.
Questo è un altro vantaggio della logica ECL.
Un altro vantaggio è che si tratta di una logica a commutazione di corrente, ho una corrente costante
shiftata tra rami diversi.
Il generatore deve sempre alimentare la stessa corrente, fornisce sempre una corrente costante pari a IEE,
e quindi ho un rumore inferiore.
Abbiamo però che viene dissipata sempre la stessa quantità di potenza, che è la massima possibile.
Sono porte ad elevato consumo ma sono porte con tempi di commutazione molto piccoli e quindi per
molto tempo sono state usate in applicazioni che richiedono un elevata capacità a discapito di elevati
consumi.

Logica sequenziale
L’uscita in certi istanti non dipende esclusivamente del valore delle variabili di ingresso in quell’istante ma
anche dal valore di queste grandezze negli istanti precedenti.
Le porte logiche sono dotate di memoria in quanto esistono variabili di stato che mantengono l’evoluzione
della porta.
Vedremo come circuitalmente con gli elementi attivi visti posso implementare questo tipo di
funzionamento.
Ci sono diversi tipi di approcci in elettronica per la memorizzazione di un dato:
- memorizzazione statica tramite circuiti bistabili, implemento circuiti che fino a quando risultano
essere alimentati (richiedono un’alimentazione) presentano due stati stabili e questo circuito può
rimanere in uno di questi due stati per un tempo indefinito finchè non viene stimolato a passare ad
un altro stato. Avendo due stati di funzionamento se riuscissi ad associare le variabili logiche ad
ogni stato di funzionamento posso utilizzare questo circuito come elemento di memoria.
E’ detto statica perché riescono a mantenere il dato per un tempo indefinito finchè c’è
alimentazione o finchè viene sollecitato a passare ad uno stato diverso.
- memorizzazione dinamica, che utilizza come elemento di memoria un condensatore, oggetto che
riesce a mantenere una volta che è stato opportunamente caricato una tensione ai suoi capi per un
certo intervallo di tempo. Se esistono dei percorsi con correnti piccole che riducono la corrente sul
condensatore la tensione sul condensatore varierà nel tempo.
Dobbiamo tenere in conto che la memorizzazione è di tipo dinamico, se vogliamo mantenere
l’informazione dobbiamo prevedere un refresh, ogni condensatore a seconda delle correnti di
perdita manterrà la carica solo per un certo intervallo di tempo, dovrò quindi introdurre carica
aggiuntiva ristabilendo quella persa.

Latch
L’elemento di base è il latch e può essere realizzato tramite due inverter collegati in retroazione.
L’uscita dell’inverter 1 viene riportata in ingresso all’inverter 2 e viceversa.
Il circuito è in reazione positiva perché abbiamo una doppia inversione del segnale, il segnale viene preso
invertito di segno e riportato in ingreso due volte, e vediamo se è in grado di memorizzare
un’informazione.
Supponiamo che in ingresso all’inverter 1 vi sia un valore pari a 0, questo viene invertito e portato in
ingresso all’inverter 2 che avrà in uscita 0 che viene riportato in ingresso e quindi viene mantenuto il dato.
Lo stesso per l’ingresso pari a 1.
Riusciamo ad avere apparentemente due stati stabili e l’anello fa sì che ci permanga per un tempo
indefinito.

Come facciamo a far commutare lo stato?


Per comprendere il funzionamento del circuito interrompiamo l’anello di reazione, tagliando uno dei due
incroci temporaneamente così che non si abbia più la reazione.
Indico con vi1 la tensione di ingresso all’inverter 1, mantengo l’uscita dell’inverter 2, vu2.
Vediamo come si comporta questo circuito, che al momento non è altro che la cascata di due inverter.

La caratteristica sarà quella di due inverter in cascata, ottengo la curva dell’inverter ribaltata perché ognuno
dei due ha la caratteristica dell’inverter che però viene invertita.
Per riportarlo al nostro latch prendiamo questo circuito e la condizione:

L’insieme di questi due mi dà il latch.


Il mio circuito di latch è equivalente a due circuiti, quello in cui interrompo il funzionamento più questa
condizione.
Nel piano Vu2/Vi1 questa condizione è una retta bisettrice.

Il latch deve soddisfare entrambe le curve, quindi i punti di funzionamento sono i punti a comune tra le due
curve. Troviamo tre punti di intersezione, punti di funzionamento del mio latch perché sono i punti in cui si
soddisfano entrambe le equazioni.

Il mio dispositivo ha tre punto di funzionamento e non due come avevo studiato prima, A e C sono i punti
analizzati prima in cui la caratteristica è piatta e il guadagno è quindi nullo.
Questi sono punti di funzionamento stabili e sono quei due in cui fuinziona da circuito bistabile.
Abbiamo però un terzo punto (B) detto meta-stabile. Se il nostro circuito si trova a funzionare in A e C
quello rimane in quel punto anche per piccole variazioni, perchè si trovano nei punti in cui la caratteristica è
piatta, a guadagno nullo.
Se si sposta poco dal punto di funzionamento mantiene quel valore in uscita.
Se mi trovo però nel punto meta-stabile, questo è un punto in cui mi posso trovare a lavorare solo dal
punto di vista del tutto teorico.
Nel caso in cui ho realizzato inverter CMOS perfettamente simmetrici questo punto stabile è a metà
dell’escursione logica, quindi sia le tensioni Vi1 che Vu2 devono trovarsi a metà e in tal caso l’uscita
dell’inverter è esattamente a metà e viene mantenuto, VDD/2.
Questo punto si trova nel punto in cui la caratteristica è motlo ripida, è sufficiente un piccolo spostamento
per far si che il sistema evolva velocemente verso uno dei due punti.
Se Vu2 aumenta leggermente si tende a incrementare questa variazione verso l’alto, questo incremento
viene ulteriormente aumentato e ciò permette di raggiungere velocemente C.
Questo punto è meta-stabile perché se si trova esattamente a V*, se ho:

Ed ecco perché viene detto meta-stabile, idealmente ci potrei rimanere ma bastano piccole variazioni per
far cadere il punto di funzionamento o in C o in A.
Se voglio far commutare il latch è sufficiente che io riesca ad uamentare vi1 non portandola per forza verso
C ma basta che supero il valore di V* anche di una piccola di quantità.
Il meccanismo di reazione interno è tale da fare portare il punto verso A.
Un’analogica è la bilancia a due piatti, è sufficiente modificare leggermente l’equilibrio per far cascare il
punto in C o in A.

Il circuito che andremo a trattare sarà composto da:


latch + circuito esterno per memorizzazione (circuito esterno annesso al latch che permette di forzare il
latch o in uno stato o nell’altro) = flip-flop
Se poi esistono altri circuiti che fanno si che queste commutazioni avvengano solo alla transizione del clock
allora vengono detti flip-flop edge-triggered.
Alcune volte i primi due vengono chiamati solo latch e tutti e tre flip-flop. Noi chiamiamo latch solo il
circuito con i due inverter in reazione.

Flip-Flop Set-Reset
Il circuito implementato per ottenere la forzatura è costituito da NOR invece che da inverter.

In teoria c’è anche la possibilità di avere lo stato R = 1 e S = 1 ma non è consigliato utilizzarlo per due
motivazioni. La prima è che si forza sia Q che Q negato allo stesso valore, non ottenendo più la situazione in
cui sono uno il negato dell’altro.
Inoltre non è definito lo stato in cui ci si trova dopo aver usato questa configurazione, quando si riporta a 0
almeno uno dei due segnali dal punto di vista fisico non si riesce a fornire una variazione istantanea e
quindi uno dei due segnali va a 0 prima dell’altro e a seconda di quali dei due segnali va a 0 prima dell’altro
si ottiene un valore in uscita non deterministico.
Per la sua realizzazione possiamo realizzare i NOR in CMOS complementare, richiedendo 2 x 4 = 8 MOS.
Esistono anche delle implementazioni alternatiche che invece di realizzare ciascuna porta partendo da
questa funzione logica sfruttano il circuito del latch, usando quindi un approccio che parte dal basso,
sapendo che ho a disposizione il circuito del latch e vedo se posso forzarlo a commutare il suo stato
ottenendo un numero di MOSFET inferiore.

L’elemento di base è costituito dall’elemento trattegiato.


Q1 e Q2 componengono un inverter CMOS il cui ingresso è portato sull’uscita di Q3 e Q4 e viceversa.
Otteniamo che Q1, Q2, Q3 e Q4 compongono il latch, che deve essere opportunamente alimentato.
Dopodichè si inseriscono altri 4 transistori, due dei quali collegati a Q negato, dove il gate di Q6 è
comandato da una variabile fi di enable, mentre Q5 dalla variabile S di Set.
Sul lato di Q abbiamo altri due MOSFET, Q8 comandato dalla variabile fi di enable e Q7 comando dalla
variabile R di reset.
Questo circuito che comprende 8 MOSFET è un flip flop SR anche con segnale di enable, se rinuncio a
quest’ultimo bastano 6 MOSFET.
Se abbiamo:

Quindi il mio latch è isolato, senza alcuna sollecitazione dall’esterno e quindi sarà in memorizzazione,
mantenendo lo stato in cui si trova.
Se invece:

Il comportamento dipende ora da S e R.


Se siamo nella condizione in cui:

In questo caso il ramo con Q8 e Q7 non da alcun contributo essendo Q7 interdetto.


Mentre dall’altro lato Q6 e Q5 sono in conduzione e se suppongo che Q5 sia un interruttore quasi ideale ciò
forza Q negato a un valore basso, e di conseguenza Q viene forzato a commutare verso 1, realizzando una
condizione di set.
Vedendolo con le tensioni abbiamo che che la tensione di Q negato per farlo commutare non è necessario
portarlo verso 0, è necessario che quando vanno in conduzione Q5 e Q6, la tensione di Q negato è
sufficiente che venga portata ad un valore inferiore a VDD/2.
Devo portare il latch a funzionare nello stato leggermente inferiore a quello meta-stabile.
Il tutto dipenderà dalle dimensioni del transistore, Q5 e Q6 devono essere dimensionati opportunamente
così da portare Q5 e Q6 verso 0. Tali rapporti dovranno essere scelti in modo tale da assicurare che, quando
viene applicato il segnale di set o quello di reset, la tensione all’ingresso dell’inverter corrispondente
scenda al di sotto di VDD/2. Possiamo ragionare in termini di resistenza.
Q2 tira verso l’alto mentre Q5 e Q6 tira verso il basso e se li considero come resistenze, devo fare in modo
che il valore VQ negato sia inferiore a VDD/2 e se ciò accade lui commuta.
Se invece:

ho Q5 OFF mentre ad andare in conduzione è Q7 e quindi abbiamo che Q7 forza Q verso 0 e ciò forza Q
negato verso 1.
Se invece:

non accade nulla essendo sia Q5 che Q7 spenti, non commuto lo stato latch.
In questo caso se io prendo:

sia Q5 che Q7 risultano ON e quindi forzerei Q verso 0 ma anche Q negato verso 0, e inoltre poi mi ritroverò
a seconda di quale dei due per ultimo torna a 0 avrei un valore non deterministico nel mio latch.
Il segnale di clock verrà utilizzato come segnale di enable.
Un’altra versione simile a questa permette di ridurre la quantità dei transistori perchè inglobo quello di
enable con quello di configurazione come segue:

Il segnale di reset viene applicato con un transistore di passo il cui gate è comandato da fi e viene applicato
stavolta a Q negato.
Il segnale di set viene applicato attraverso Q6, il cui gate è collegato da fi, e viene applicato stavolta a Q.
Se abbiamo:

Mentre se invece fi = 1 il tutto dipenderà da S e R.


Se S = 1 e R = 0 forzo direttamente Q = 1, collego direttamente S a Q, e quindi VQ -> VDD mentre VQ negato
-> 0. Se S vale VDD attivando Q6 la tensione VQ sarà ad un valore intermedio tra 0 e VDD e se faccio in
modo che sia maggiore di VDD/2 il mio latch commuta.
La cosa opposta accade se:

In questo caso R è collegato direttamente a Q negato e forzo direttamente Q negato a 1 e quindi Q tenderà
a 0. In questa configurazione con 6 MOSFET ha però due configurazioni che non posso usare e non più una.

Questo perché intervengo diurettamebte sulle variabili del latch, forzando Q e Q negato verso la stessa
tensione. Ho un’implementazione migliore ma non possono essere usate ben due configurazioni.

Flip-Flop D
I flip-flop di tipo D presentano in uscita il valore fornito all’ingresso finchè il terminale di enable è allo stato
alto, abbiamo la cosiddetta trasparenza (Q = D). Se il terminale di enable viene portato allo stato basso, in
uscita viene mantenuto il valore logico presente all’ingresso nell’istante immediatamente precedente la
transizione della variabile di enable, siamo quindi nello stato di memorizzazione.

Da un punto di vista logico, perciò un flip-flop di tipo D può essere ottenuto semplicemente utilizzando un
flip-flop SR con enable unitamente a un inverter, come indicato in figura: se il terminale di enable è allo
stato alto, l’uscita sarà una copia dell’ingresso, dato che per un valore logico alto in ingresso viene attivato il
terminale di set e per un valore logico basso viene attivato quello di reset (trasparenza). Se il terminale di
enable viene portato poi a livello basso, l’uscita del flip-flop rimane al valore memorizzato dal latch interno
(memorizzazione).
Esistono quindi almeno due possibili implementazioni per il flip-flop perché per il flip-flop SR con enable
esistono due possibili implementazioni. Esiste un metodo più semplice che prevede l’utilizzo di un numero
minore di componenti e che sfrutta entrambi i tipi di memorizzazione nei circuiti elettronici.
Abbiamo visto la possibilità di avere circuiti bistabili, come il latch, oppure lo stato viene memorizzato su un
condensatore.
Esiste un circuito che sfrutta entrambi i meccanismi.
Il circuito è semplice e prevede l’utilizzo di due inverter in cascata che possono essere realizzati in
tecnologia CMOS, quindi con due MOSFET per ogni inverter.
Dopodichè si utilizza un MOSFET per collegare l’ingresso all’ingresso del primo inverter, comandato dal
segnale fi.

Abbiamo un percorso di retroazione che collega l’uscita all’ingresso del primo inverter e lungo questo
anello abbiamo un altro MOSFET dove abbiamo il controllo da parte delle variabile fi negato.

In realtà fi negato non è la negazione di fi, ma sono sostanzialmente due clock non overlapping.
fi e fi negato sono due segnali l’uno l’opposto dell’altro dal punto di vista logico, ma dal punto di vista
temporale non esiste mai un intervallo di tempo in cui i due segnali sono contemporaneamente al valore
logico 1.
Chiamiamo i due transistori M1 e M2 e vediamo il funzionamento del nostro flip-flop.
Supponiamo di avere:

In questo caso avremo M1 ON e 2 OFF e il flip-flop non è altro che la serie di due inverter.
Abbiamo quindi la condizione di trasparenza e l’uscita dopo il primo inverter sarà Q negato e quella dopo il
secondo sarà Q.
Quando invece:

M1 sarà OFF mentre M2 sarà ON, abbiamo quindi due inverter in serie ma con un anello di reazione e
quindi la presenza di un latch e quindi di conseguenza sono in memorizzazione.
In condizioni statiche, negli intervalli in cui sono verificate queste due condizioni sul valore di enable il tutto
funziona correttamente.
E’ fondamentale che questi due comportamenti siano separati temporalmente, non devo avere e M1 e M2
contemporaneamente ON.
Avrei un latch a cui vado ad applicare un segnale dall’esterno e a seconda se questo segnale è in grado di
forzare o meno lo stato del latch, avremo che il dispositivo si può comportare da latch (non modifica il
proprio stato) o potrà andare in trasparenza.
Avrei sia il latch attivo con un collegamento dall’esterno ma non è garantito che D sia in grado di modificare
lo stato del dispositivo e che quindi siamo in trasparenza.
Considerando i due segnali esiste quindi un intervallo deltaT in cui i miei due transistori risultano entrambi
spenti.
Nella commutazione tra la trasparenza e la memorizzazione ho un piccolo intervallo di tempo che devo
garantire in cui siano entrambi spenti, Deltat != 0.

Questo intervallo di tempo in cui entrambi sono spenti può essere lungo a piacere o deve essere il più
piccolo possibile?
Supponiamo di essere nell’istante prima del spegnimento di M1 (a sinistra di deltat), il dato D che vale VDD
(valore logico 1) è applicato in ingresso al mio inverter. Ho M2 spento e vado a fare la mia commutazione,
ho un intervallo in cui M1 sarà quindi anch’esso spento.
Ho un intervallo in cui in ingresso al primo inverter avevo VDD, ma chi mi mantiene questa tensione.
In ingresso ho una tensione VDD che devo mantenere fino a quando M2 entra in conduzione.
Quando M2 entra in conduzione Q valrà VDD e quindi l’anello di reazione mantiene la memorizzazione.
Ma chi mi conserva il dato in ingresso al primo inverter quando M1 e M2 sono spenti?
Il dispositivo che abbiamo di fronte è però un inverter in tecnologia CMOS e quindi il terminale di ingresso è
costituito dai gate dei due MOSFET e quindi troviamo il gate di un MOSFET che è un terminale isolato e
abbiamo individuato anche la capacità di gate.
La risposta a questa domanda è quindi la capacità di gate del primo inverter.
Ho in questo punto una capacità di gate, sulla quale memorizzo il dato in questo intervallo Deltat, nel quale
il dato è memorizzato su questa capacità.
Non ci può rimanere a lungo perchè anche se i gate sono isolati presentano una certa corrente di perdita e
quindi non posso lasciarla per un tempo indefinito ma può essere mantenuto per un certo intervallo di
tempo.

Solitamente deltaT si prende pari a un decimo del periodo dell’onda.


E’ sufficientemente lungo da garantire che non siano entrambi in conduzione e sufficientemente corto da
garantire che la capacità possa mantenere questa informazione.
Questo dispositivo con clock non overlapping funziona correttamente ma presenta un inconveniente.
Se ho delle oscillazioni sul dato D queste oscillazioni anche se con un piccolo ritardo sono presenti
direttamente in uscita, comportamento che può dare dei problemi e quindi si preferisce avere flip-flop D
che tipicamente hanno l’aggiornamento del dato di uscita solo sul fronte di salita o sul fronte di discesa di
un clock, i cosiddetti flip-flop D Edge Triggered.

Flip-flop tipo D Edge Triggered


Per realizzare questo meccanismo si usa una struttura master/slave mettendo in cascata due flip-flop
identici a quelli visti.
Entrambi i flip-flop sono costituiti da due inverter in cascata, ma nel secondo inverter il MOSFET di accesso
al secondo stadio è comandato da fi2 che è lo stesso che nell’altro comandava l’anello di reazione.

Il segnale che in uno stadio comanda l’anello di reazione nell’altro stadio comanda il segnale di accesso.

I due devono essere ancora due clock non sovrapposti, e abbiamo che:

Con questa configurazione gli stadi si comportano in modo duale e avendo imposto la condizione che fi1 = 1
e f2 = 1 non avvengano mai contemporaneamente, esiste sempre l’intervallo deltaT != 0, non esiste mai un
percorso diretto tra D e Q in ciascun istante.
Quindi quando il master è in trasparenza il valore di D si blocca nel punto prima del MOSFET di accesso
pilotato da fi2, quando quest’ultimo diventa 1, l’ultimo dato in ingresso che avevo prima che fi1 cambiasse
il suo stato viene memorizzato dal master e reso disponibile in uscita, perché si attiva l’anello di reazione
del master che mentiene il dato e fi2 si attiva facendo in modo che questo dato venga reso disponibile in
uscita.
Posizionandoci nel solito istante, nel fronte in discesa di fi1 il MOSFET M1 va in interdizione, il dato viene
memorizzato dalla capacità di gate di ingresso del master e quando ci sarà il fronte in salita di fi2 lo slave
viene messo in comunicazione, Q cambia e il master manterrà nell’anello questo dato.
Un nuovo dato in uscita lo vediamo solo quando vi è il fronte in salita di fi2, ma questo dato era presente in
ingresso nel fronte in discesa di fi1.
Quindi se il dato prevede delle oscillazioni queste non le vedrò mai in uscita perché l’unico dato che trovo
in uscita era quello presente in ingresso nel fronte di discesa di fi1 precedente.

Se D presenta oscillazioni e poi si stabilizza, queste oscillazioni non le vedrò mai in Q, prelevando quindi il
dato in un opportuno istante.

Multivibratori (Oscillatori)
Vediamo dei possibili circuiti che ci consentono di ottenere segnali che variano nel tempo in modo
ripetitivo.
I flip-flop rientrano in una categoria più generale che prende il nome di multivibratori, dispositivi che
vengono suddividi in tre categorie.
I multivibratori stabili sono circuiti che presentano due stati stabili, mantiene un determinato stato di uscita
fintanto che non viene applicato un segnale esterno, trigger che forza la commutazione.
I latch sono dispositivi logici che rientrano in questa categoria.
I multivibratori monostabili sono circuiti che presentano uno stato stabile e in presenza di una
sollecitazione esterna (trigger) i circuiti sono in grado di commutare in un altro stato nel quale permangono
per un tempo determinato per poi tornare nel vecchio stato.
In poche parole riescono a emettere un impulso di durata nota a seguito dell’applicazione di un trigger.
I multivibratori astabili sono circuiti che non hanno uno stato stabile ma continuano a oscillare tra due stati
quasi-stabili. Questo è il tipico comportamento di un segnale di clock, se associo il valore logico 0 a un
valore di tensione basso e il valore logico 1 a un valore di tensione alto avrà una continua commutazione da
uno stato all’altro.

Circuito integrato NE555


Il circuito integrato NE555 è un interessante esempio di combinazione di funzioni digitali e analogiche,
circuito che può essere utilizzato come metodo per realizzare in componenti discreti questi tipi di circuiti.
Applicandogli opportuni componenti esterni potremo realizzare degli oscillatori.
Dal punto di vista esterno presenta 8 piedini ognuno dei quali svolge una specifica funzione e al suo interno
vengono implementati sia circuiti digitali che analogici.
Il piedino 8 deve essere collegato alla tensione di alimentazione, che per questo integrato varia tipicamente
da 4.5V a 16V, che alimenta tutta la circuiteria interna e il piedino 1 sarà collegato a ground.
Tra i due sono collegati in serie tre resistenze uguali tra di loro, realizzando un partitore di tensione che
divide la tensione in tra parti uguali.
Avrò in basso 1/3 VCC (sul + dell’operazionale) mentre avrò 2/3 VCC sul piedino successivo (-
dell’operazionale) considerando che questi sono operazionali a loop aperto e quindi sono utilizzati come
comparatori, per cui se V+ > V- il comparatore è saturo alto altrimenti è saturo basso e avremo
rispettivamente tensione alta o tensione bassa.
Il terminale – del comportatore sotto è collegato al segnale di trigger, collegato al piedino 2.
Il secondo comparatore ha il – collegato a 2/3VCC mentre il terminale + collegato al terminale di soglia.
L’uscita dei due viene collegata all’ingresso di un flip-flop SR.
Delle uscite si preleva l’uscita Q negata del flip flop che viene portata in uscita attraverso un inverter.
Si effettua ciò perché trasmite questo inverter è possibile erogare/assorbire correnti in uscita anche
dell’ordine di 100mA.
La funzione di questo inverter è quella di avere MOSFET opportunamente dimensionati così da
fornire/assorbire una corrente non trascurabile così da avere la possibilità di pilotare con questo segnale
dei carichi capacitivi.
Q negato viene anche collegato alla base di un BJT, quindi quando:

il BJT viene mandato in conduzione e considerato come saturo, quindi come un interruttore chiuso e il
terminale di Discharge ha come valore praticamente 0V.
Quando invece:

Il BJT è interdetto, abbiamo un circuito aperto e il terminale D è in alta impedenza (HI).


Per quanto riguarda il flip-flop il set ha priorità sul reset, se entrambi valgono 1 quello che diventa efficace è
il terminale di set.
Il reset disponibile sul piedono 4 è un reset attivo basso, piedino esterno che ha priorità su reset e set e può
essere usato per resettare il flip-flop dall’esterno.
Per quanto riguarda i due comparatori se sull’ingresso TH (Threshold) è presente una tensione superiore a
2/3 VCC, viene attivato il terminale di reset del flip-flop; se invece è presente una tensione inferiore a 1/3
VCC sull’ingresso TR (trigger), l’amplificatore è saturo alto e risulta attivato il terminale di set del flip-flop.

Tracciamo un diagramma che rappresenti lo stato dell’uscita in funzione dello stato delle tensioni di
ingresso VTH e VTR.
Per VTR < 1/3 VCC, il terminale di set è attivo e quindi l’uscita è sempre a livello alto, anche se VTH > 2/3
VCC, perchè, come abbiamo già detto, il set ha priorità sul reset.
Se invece VTR supera 1/3 VCC, l’uscita rimarrà nello stato in cui si trovava precedentemente se VTH < 2/3
VCC (dato che in tal caso nè il set nè il reset sono attivi), siamo quindi in uno stato di memorizzazione,
oppure sarà forzata al livello basso se VTH > 2/3 VCC. Abbiamo così diviso il piano di lavoro in quattro
quadranti. Le zone di funzionamento diventano 3 perché a sinistra abbiamo che in ogni caso in uscita
troviamo un valore logico alto.
Andremo a utilizzare il segnale di trigger e quello di soglia pilotandoli opportunamente in modo da ottenere
il risultato che vogliamo.

Circuito monostabile (timer) – Circuito integrato NE555


Proviamo a realizzare un circuito monostabile, realizzando un segnale che rimane per un tempo indefinito
nel suo stato finchè non lo andiamo a commutare.
Possiamo ottenere con questo circuito un impulso in uscita di una durata ben definita, anche piuttosto
lungo.
Per semplicità del circuito integrato indichiamo solo TH, TR, Q e D.
Si applica una resistenza in serie a un condensatore e il terminale presenta tra resistenza e condensatore
viene applicato sia alla soglia che al terminale di discharge, mentre il trigger che è il segnale che voglio
usare per realizzare la commutazione lo colleghiamo a Vin.
Con un circuito monostabile si deve innanzitutto individuare lo stato stabile, lo stato in cui il sistema può
rimanere per un tempo indefinito fino a quando viene applicato il trigger.
Supponiamo che sia:

Quando all’ingresso TR è presente una tensione superiore a 1/3 VCC, il set si trova a 0.
Vediamo se questa configurazione è stabile ipotizzando che Q = 0.
Se Q = 0 e Vin = VCC vediamo se ci troviamo in uno stato stabile:

Quando Q negato vale 1 il BJT è saturo e quindi D = 0.


Il nodo a cui è collegato è collegato anche VTH:

VTH = 0, VTR = VCC e quindi sono in memorizzazione.


Il flip-flop può rimanere in questo stato per un tempo indefinito, fino a quando non modifico il valore di Vin.
Proviamo a realizzare un diagramma temporale prendendo la tensione di ingresso, che coincide con VTR, la
tensione di uscita, che coincide con VQ, la tensione sul condensatore che coincide con VTH.
Lo stato stabile si ha quando la tensione vin = VCC, la tensione di uscita è allo stato basso e anche Vc valeva
0 perché D è attivato.
Quando si ha una commutazione di VTR, portando la tensione di ingresso al valore basso, ciò ha come
immediata conseguenza S = 1 e quindi Q = 1.

Quindi la tensione VQ sale al valore VCC, ma se Q = 1:

Il BJT interno è in interdizione e quindi D va in alta impedenza.

VTH è collegato al + del comparatore e in questo circuito accade che i+ = 0 e ho un circuito in cui scorre
della corrente da VCC attraverso R sul condensatore e quindi la tensione sul condensatore inizierà ad
aumentare e a regime se non accadesse nulla lui andrebbe a VCC.
Se supponiamo che l’impulso dato sul trigger sia già concluso, VTR va nello stato alto, VTH aumenta e
quando questo arriva al valore di 2/3 VCC e diventa maggiore di questo valore, R = 1 e se VTR è già ritornata
al valore alto, S = 0, e avremo una situazione in cui abbiamo R = 1, e poichè S = 0 abbiamo che l’uscita
rimarrà alta solo fino a questo istante.

Se il BJT è saturo scarica velocemente la tensione sul condensatore e poi la riporta a 0 e in questo stato
sono dinuovo nello stato di partenza in cui il condensatore è scarico, la Vu è tornata a 0 e sono tornato nel
mio stato stabile, dove però ho generato un impulso in uscita di valore T.
Deve essere che però l’intervallo deltaT << T, in modo che quando R va a 1 il valore di S sia già a 0.
Possiamo facilmente calcolare la durata dell’impulso di uscita: questa corrisponde al tempo impiegato dalla
tensione sul condensatore per raggiungere 2/3 VCC.

Dove Vf è la tensione su C quando la corrente che scorre nel circuito è nulla, quindi quando il condensatore
si è caricato.
La tensione Vi è la tensione iniziale e tau è la cosiddetta costante di tempo = R*C.
La tensione finale su cui si troverebbe il nostro condensatore quando non scorre resistenza in R è VCC,
mentre la tensione iniziale è pari a 0, supponendo che l’asse dei tempi partisse dall’istante in cui vin = 0.

Questo transitorio dura fino a quando la tensione sul condensatore vale 2/3*VCC.

Posso allora ricavarmi t1:

Se prendo l’origine degli assi nell’istante indicato, posso ricavare che T = t1 = RC*ln3.
Ottenendo che questo circuito è in grado di fornirmi un impulso in uscita la cui durata dipende dal valore
della resistenza, della capacità applicata e di una costante, ln3.

Circuito astabile – Circuito integrato NE555


Un’altra possibile applicazione dello NE555 consiste nella realizzazione di un multivibratore astabile, un
possibile schema del quale è riportato di seguito.

Si prevede che TH e TR siano collegati insieme tra una resistenza e un condensatore.


Il punto tra RA e RB è invece collegato al terminale D.

Nei circuiti astabili non c’è uno stato stabile in quanto il circuito continua ad oscillare tra due stati possibili.
Si parte da uno stato possibile e vediamo come evolve il sistema.
Supponiamo di partire dall’istante in cui Q è diventato 1 e realizziamo un diagramma temporale dove Vc =
VTH = VTR.

Supponiamo che Q sia appena diventato 1 e partiamo quindi dal fronte in salita.
Se siamo nell’istante in cui Q = 1, in quell’istante VTR è diventato pari a 1/3*VCC.

Il circuito in questo stato si presenta come segue:

Se VC = 1/3*VCC abbiamo S = 1, Q negato vale 0 e ciò vuol dire che D è in alta impedenza e quindi il circuito
diventa questo.
Come prima avrà la carica del condensatore attrvaverso RA e RB.
Non potrà raggiungere VCC perché quando la tensione arriva a 2/3*VCC abbiamo R = 1 con S = 0, perché TR
e TH sono alla stessa tensione.
La curva commuterà a 0.
Se Q = 0, Q negato vale 1 e quindi D diventa 0.
Il circuito diventa allora il seguente:

Il collegamento forza il condensatore ad andare verso 0.


Il condensatore tenderà a scaricarsi verso 0 senza poterci arrivare perché quando arriva a 1/3*VCC siamo
nella condizione in cui:

Quindi dinuovo il tutto commuterà, il condensatore si caricherà e così via.


Il condensatore quindi si carica da 1/3*VCC a 2/3*VCC, si scarica da 2/3*VCC a 1/3*VCC e l’uscita oscillerà
tra questi due valori, non avendo mai uno stato stabile ma l’oscillatore continuerà a oscillare tra uno stato
stabile e l’altro.
L’uscita sarà alta durante la salita da 1/3*VCC a 2/3*VCC e bassa nella discesa.
L’oscillazione viene ottenuto dal fatto che la tensione ai capi del condensatore ha questo andamento di
carica e scarica continua.
Possiamo calcolare T1 come segue:

Prendiamo la tensione v(t), la tensione ai capi del condensatore.


Prendiamo l’origine degli assi tale da avere l’istante 0 nell’istante in cui inizia il semiperiodo T1.
La tensione Vf è quella a cui si troverebbe il condensatore se facessi esaurire tutto il transitorio di carica, ed
è pari a VCC.
La tensione vi è la tensione a cui inizia il transitorio, ovvero 1/3VCC.
La tensione vc(T1) detta anche di commutazione, arriverebbe al valore VCC se facessi esaurire tutto il
transitorio, mentre nel nostro caso è pari a:

Risolvendo l’equazione si ha:


La costante di tempo del circuito è data dal prodotto della capacità e la resistenza vista dalla capacità, che
so ottiene disattivando i generatori indipendenti ed è quindi data dalla serie RA e RB.

Intervallo di tempo indipendente dalle caratteristiche specifiche dell’NE555 ma solo dalla capacità, dalle
resistenze e da una costante.
Calcoliamo T2 e per farlo indichiamo con 0 l’istante in cui inizia il semiperiodo:

La tensione finale, se si esaurisce tutto il transitorio è pari a 0V, visto che il condensatore si scaricherebbe
con RB verso ground.

Possiamo calcolare allora T2:

La costante di tempo in questo caso è il prodotto della capacità per la resistenza vista, ma se disattivo VCC
RA non dà alcun contributo visto che è cortocircuitata, e l’unica resistenza che il condensatore vede è RB.

Quindi:

Possiamo allora calcolare la frequenza del segnale, l’inverso del periodo, che è quindi pari a:

Siamo in grado di generare un segnale con questa frequenza, ma il problema è che il duty cycle non può
essere del 50%, perché le costanti di tempo sono diverse, da una parte abbiamo RA+RB e dall’altra solo RB,
si potrebbe avere solo se RA << RB.
Il duty cycle è quindi sempre diverso da ½.
Ho un segnale quindi astabile con una continua oscillazione tra il livello alto e il livello basso.
Quando c’è l’istante di commutazione abbiamo una sequenza di impulsi su vset e un vreset che mi fanno
commutare Q.

Il duty cycle:

Ma se abbiamo:

Possiamo utilizzarlo come clock, assumendo T1 e T2 circa uguali tra di loro.

Multivibratore monostabile a porte logiche CMOS


Possiamo realizzare circuiti multivibratori con porte logiche CMOS, cominciando dal multivibratore
monostabile.
Il circuito si porta da uno stato stabile difronte a un impulso in uno stato quasi stabile per una durata pari a
T.

Un metodo per ottenere questo comportamento è il seguente:

Abbiamo due porte NOR che le utilizziamo a componenti discreti, e aggiungiamo un condensatore e una
resistenza.
In uno dei due ingressi della prima porta NOR applichiamo la Vin, mentre sull’altro ingresso è riportato il
segnale di uscita della seconda porta NOR.
Per ottenere un comportamento monostabile troviamo un anello di reazione.
Tra l’uscita del primo NOR e l’ingresso del secondo NOR viene posto un condensatore C e la tensione di
ingresso viene posto a VDD con una resistenza.
Il secondo NOR è collegato coi due ingressi insieme e quindi funziona come un inverter.
Ipotizziamo che le porte NOR sono realizzate in tecnologia CMOS complementare e abbiamo la rete di pull-
up e la rete di pull-down.
Per cui quando l’output è al valore logico basso è attivo il pull-down e quindi avremo una Ronpull-down che
schematizza il fatto che sarà attivo la rete di pull-down costituita dall’NMOS.
Quando l’uscita della porta NOR è a un valore logico alto è attivo il pull-up, per cui l’uscita è collegata a VDD
dalla Ron del PMOS.

Per semplicità considereremo Ron perfettamente uguali tra di loro.


Per quanto riguarda l’input, siccome stiamo realizzando un circuito a componenti discreti per cui
aggiungiamo questi componenti, è presente un circuito di protezione:

Nella trattazione considereremo Rs uguale a 0, trascurando la sua presenza.


In presenza di un monostabile dobbiamo innanzitutto trovare lo stato stabile, stato in cui il circuito si
mantiene per un tempo indefinito se non avviene nulla dall’esterno.

Lo stato stabile noi vogliamo che sia lo stato in cui Vin = 0V, abbiamo quindi un ingresso al primo NOR.
Nello stato stabile non scorre corrente nel condensatore e quindi o è completamente carico o
completamente scarico.
Se non scorre alcuna corrente nel condensatore, la tensione v2 si troverà al valore di VDD e quindi in
ingresso all’inverter 2 avremo un valore logico alto.
Poiché l’uscita sarà ottenuta tramite un inverter, ciò avrà come conseguenza:

Quindi in uscita abbiamo un livello logico basso che viene riportato in ingresso e quindi v1, uscita di un NOR
in cui gli ingressi sono entrambi 0, in uscita avrò un 1 logico e quindi in uscita avrò VDD.
Quindi v1 = v2 e quindi se identifico la tensione ai capi del condensatore con questa polarità:

Otterrò che il condensatore è completamente scarico in quanto ho v2 = v1 e quindi ho una condizione di


regime, il sistema può rimanere in questo stato per un tempo indefinito fino a che non avviene una
sollecitazione dall’esterno.

Se ora arriva un impulso su Vin, e quindi se Vin passa a VDD, il primo NOR ha un’uscita che commuta e
quindi v1 tende a un valore di tensione piccolo, che non sarà proprio 0.
Il condensatore è inerziale alle variazioni di tensione e quindi la tensione ai suoi capi non può variare
istantaneamente.
Abbiamo un condensatore di tensione nulla e quindi dobbiamo verificare il suo comportamento perché se
la sua tensione era a 0V, all’istante immediatamente successivo tende a rimanere a questo valore.
Se il primo NOR è commutato a 0, il circuito sarà questo.

Sarà attiva la PDN e quindi avrò la RON della pull-down.


Se la tensione ai capi del condensatore è nulla inizialmente, la tensione v1 all’istante 0+ la v1 sarà data dalla
partizione di VDD su Ron.
All’istante t = 0+, il condensatore non può variare istantaneamente la tensione ai suoi capi e inoltre le porte
non hanno una resistenza di uscita nulla (Ron piccola ma diverso da 0) e ciò comporta che la tensione non
diventa 0 ma diventa un valore V*, partizione della VDD tra Ron e R.

Andiamo a realizzare dei diagrammi temporali graficando vin, v1 e v2.


All’inizio abbiamo vin = 0, v1 = VDD, v2 = VDD, vout = 0. Quando abbiamo l’impulso il
valore di v1 va a V*, vicino a 0 e interpretato come tale, ma il condensatore è
inerziale quindi se il terminale a sinistra si è portato a V* anche la parte a destra
diminuirà fino a V*.
Scendendo a questo valore abbiamo che l’ingresso alla seconda porta NOR viene
interpretato anch’esso come uno 0 e quindi l’uscita si porta al livello logico alto,
commutando verso VDD.
Anche se l’impulso su Vin finisce adesso ho l’1 sull’anello di reazione che mantiene
questo stato.

Durante tutto questo periodo è vero che all’istante t = 0+ il condensatore era scarico, ma guardando questo
circuito avremo una corrente che scorrerà nel verso in figura che porterà alla carica del condensatore con
una costante di tempo determinata da R e Ron e si caricherà con v2 che va verso VCC e v1 che va verso 0.

Perché al termine del transitorio v2 = VDD e v1 = 0.


La tensione v2 tenderà ad aumentare, mentre v1 tenderà a diminuire, abbiamo due esponenziali che
tenderanno uno verso 0 e uno verso VDD.
Se troviamo la tensione di soglia dell’inverter VTH, la tensione v2 che tenderà ad aumentare a un certo
punto il valore logico in ingresso all’inverter non verrà più interpretato come un valore logico basso ma
come un valore logico alto.
Se l’ingresso al secondo NOR viene interpretato al valore logico alto abbiamo chein quell’istante la tensione
di uscita commuterà.
L’ingresso se è terminato anch’esso è diventato 0 e l’uscita del primo NOR va a 1, v1 tenderebbe anch’esso
a diventare alto e di attiva la PUN del NOR 1, v2 vorrebbe arrivare alto a VDD, ma anche v2 vorrebbe fare lo
stesso salto, i condensatori sono inerziali e quindi la tensione vorrebbe andare a VDD+VTH, perché se V1 da
0 fa un salto a VDD allora questo da VTH vorrebbe passare a VDD + VTH.
Questo però non può avvenire perché la tensione di ingresso è limitata dal circuito di protezione a VDD +
Vy e quindi questa tensione si blocca al valore VDD + Vy.
Fa un salto da Vth a VDD + Vy, quindi anche v1 non può arrivare al valore VDD ma si fermerà al valore VDD
+ Vy – VTH, perché deve essere uguale a deltaV2.
La presenza dei diodi di protezione fanno sì che il circuito non possa arrivare ai valori di tensione a cui
dovrebbe arrivare normalmente ma viene bloccato a dei valori precedenti.

Quindio v1 non è riuscito ad arrivare a VDD mentre v2 è più alto di VDD.


Ora è attiva la PUN del primo inverter e quindi troviamo la RON del PMOS, troviamo poi il condensatore, la
resistenza esterna, abbiamo anche il diodo che è entrato in conduzione.

Abbiamo che all’istante 0+ mi trovo in questa situazione.


Se a regime non scorre corrente la tensione VDD+Vy decrescerà e scenderà a VDD, ma anchela tensione
VDD+Vy-VTH si porterà a VDD.
Abbiamo che v1 crescerà fino a VDD con una costante di tempo pari al prodotto della resistenza vista e il
condensatore:

Bisogna ricordare che in parallelo a R c’è la R del diodo, la RON è molto piccola, lo è anche il parallelo, ho
quindi una resistenza vista molto piccola e quindi V1 cresce velocemente, tende al valore VDD in un modo
molto veloce.
Per quanto riguarda V2, questa decresce fino a VDD ma appena inizia V2 è minore di VDD + Vy il diodo si
interdice.
La resistenza vista, se il diodo si spegne, è quindi data da:

Ma la resistenza R non è piccola, quindi in questo caso la costante di tempo è maggiore e quindi v2
decresce lentamente.

La tensione v2 tende a VDD con un certo tempo non trascurabile.


Prima che possa applicare un nuovo impulso devo aspettare che v2 ritorni a VDD, è necessario aspettare un
intervallo di tempo detto recovery time che devo aspettare prima di applicare un altro impulso in ingresso.
Devo aspettare perché se lo applicassi prima che lui è ritornato a VDD il valore non va a V*, ma va a un V*
diverso, infatti V* dipende dalla carica del condensatore, devo aspettare che il condensatore si scarichi
completamente.
Mentre il lato sinistro del condensatore è collegato a v1 e si riesce a scaricare velocemente, il lato destro
impiega un po’ di tempo.
Devo aspettare il recovery time prima che v2 tendi a VDD e mi riporto nelle condizioni di condensatore
scarico, e arrivati a quell’istante posso applicare un altro impulso e ottenere in uscita un altro impulso.

Calcoliamo la durata dell’impulso T.


La tensione a cui si carica il condensatore Vf quando si esaurisce il transitorio sarebbe VDD.
La tensione iniziale è V*, mentre la tensione di commutazione è la tensione VTH.

Prendendo l’origine dei tempi come in figura e t1 istante di commutazione.


La costante di tempo tau è il prodotto tra la capacità e la resistenza vista.

Quindi abbiamo ottenuto che la nostra costante di tempo dipende da C, dalla resistenza esterna e dalla
Ron.
Valutiamo un caso particolare, che si presenta spesso.

Perché il termine R/R+Ron tende a 1.


Se abbiamo fatto perfettamente complementari i due MOSFET e abbiamo scelto che la tensione di
commutazione sia proprio VDD/2, la durata dell’impulso sarà:

Ottenendo anche in questo caso un circuito che è in grado di generare un impulso di durata T che dipende
dalla costante di tempo e da una costante.
L’unico svantggio è che dobbiamo aspettare il transistorio di v2, che torni al valore di VDD, mentre il
transitorio di v1 non è visibile.
Altrimenti se non lo aspetto ottengo ancora un impulso in uscita ma di durata diversa, avendo tenuto conto
del fatto che il condensatore fosse inizialmente scarico, se così non è V* ha un valore diverso e quindi
cambia la tensione iniziale del transitorio e quindi cambia la durata di T.
Se vogliamo fare in modo che il nostro circuito abbia sempre un intervallo dell’impulso generato costante
dobbiamo aspettare un certo tempo prima di ri-applicare un altro impulso in ingresso.
Ritornando alla formula generale per il calcolo della durata dell’impulso:

Otteniamo questa formula generale che possiamo utilizzare direttamente nel calcolo di t1.
Multivibratore astabile a porte logiche CMOS
Si prendono due porte NOR utilizzate come due inverter, sono presenti anche qui degli anelli di reazione.
L’uscita del primo inverter viene collegato all’ingresso della prima con un condensatore, troviamo poi una
resistenza opportuna.

Il condensatore viene caricato e scaricato in modo continuo alternando queste due fasi.
Facciamo delle ipotesi semplificative:

Ipotizziamo che vi sia il circuito di protezione, però semplificato con Vy del diodo pari a 0 e Rs anch’esso
pari a 0.
Andremo ad analizzare la carica e la scarica del condensatore attraverso la resistenza C tenendo conto che i
due terminali saranno vo1 e vo2.

Essendo il circuito astabile dobbiamo partire da una condizione di partenza e vediamo come evolve il
nostro schema.
Supponiamo di partire dal caso in cui vi1 > vth, quindi avrò un valore logico 1 in ingresso, un valore logico 0
in uscita e un valore logico 1 in uscita al secondo inverter.

La vo1 si troverà a 0V e la vo2 si trova invece a VDD.


Il nostro circuito si trova quindi in queste condizioni:
Scorrerà una corrente nel verso indicato in figura e accadrà che la vi1 dal livello alto tenderà al livello basso,
cominciando a scendere, perché a regime quando non scorrerà più corrente sarà arrivata a 0.
Ma arriverà fino a VTH, prima di arrivare a VTH non cambia nulla, mentre all’arrivo a VTH l’ingresso al primo
inverter viene interpretato come un valore logico 0, l’uscita al primo inverter tenderà a un valore logico 1 e
l’uscita dell’inverter 2 tenderà al valore logico 0.
Troviamo però la presenza del condensatore, che si trova tra vo1 e vo2, entrambi tenderebbero di
commutare di un valore pari a VDD.
Il terminale di destra tenderebbe a scendere di VDD, quindi anche quello di sinistra, vi1, tenderebbe a
scendere di VDD passando a VTH – VDD, ma ci sono i circuiti di protezione alla porta 1 che lo impediscono e
vi1 si blocca quindi a 0 (perché abbiamo considerato Vy = 0).
La variazione che può fare è quindi solo pari a VTH.
Anche vo2 avendo la stessa variazione potrà scendere solo al valore VDD – VTh.

Il circuito di protezione impedisce alle tensioni di superare certi valori e l’inerzialità del condensatore fa sì
che le variazioni di tensione siano le stesse nelle due armature, così da mantenere costante la differenza di
potenziale ai capi del condensatore.
La situazione sul condensatore è variata, la vo1 è diventata VCC e l’uscita vo2 nonostante è a questa
tensione molto velocemente va a 0 e quindi possiamo considerare vo2 a 0.
La corrente scorrerà nel verso opposto rispetto a prima.

La tensione vi1 tenderà a salire verso VCC perché a regime quando non scorrerà corrente la vi1 sarà pari a
VCC.
Prima di arrivare a VTH l’uscita vo1 si manterrà al livello alto e di vo2 a livelo basso.
Arrivati a VTH avremo una commutazione in ingresso al primo inverter che viene interpretato come 1, men
tre vo1 sarà pari a 0 e vo2 sarà pari a 1.
La tensione di uscita si abbassa, la tensione vo2 vorrebbe alzarsi e vorrebbe alzarsi di VDD, quindi vi1
vorrebbe andare al valore pari a VDD + VTH ma ci sono i diodi di protezione e quindi questa tensione si
bloccherà al valore di VDD e quindi anche vo2 non raggiungerà VDD, ma da questo punto in cui arriva,
arriverà a VDD molto velocemente.
Quindi si ritorna al circuito 1 in cui nuovamente il condensatore si riscarica, l’uscita rimane bassa, vo2
rimane alta e poi dinuovo avremo la caduta su vo1 e così via.
La cosa si ripete e quindi vo1 si ripete.

Andiamo a calcolare l’intervallo di tempo T1 in cui l’uscita vo1 è al livello alto (quindi vo2 a livello basso).
Usando la formula generale e prendendo Vi, Vf, Vcomm:

Vi = 0 perchè il diodo me lo impone, Vf è VCC, tensione finale quando non scorre più corrente, e la tensione
di commutazione si ha quando arriva a VTH.

Avendo imposto che le varie Ron sono nulle, si può dire che:
Andiamo a calcolarci T1, considerando la vi1 si parte da VDD e si scende verso 0 fermandoci a VTH.

Utilizzando la formula generale:

Il circuito è sempre lo stesso, quindi tau è lo stesso.


Il condensatore viene caricato una volta in un verso e una volta nel verso opposto.
T1 si avrà durante la carica del condensatore, mentre T2 si avrà durante la scarica del condensatore.
Il periodo complessivo sarà:

Utilizzando la proprietà dei logaritmi : ln(a) + ln(b) = ln(ab).

in questo caso abbiamo un duty cycle esattamente pari a 50%, visto che sia per T1 e T2:

Realizziamo quindi un clock che riesce a pilotare i miei circuiti.

Oscillatore ad anello
Un altro circuito che ci permette di ottenere un’onda quadra con duty cycle a 50% è l’oscillatore ad anello,
realizzato attraverso degli inverter, in particolare un numero dispari di inverter altrimenti non si è in grado
di oscillare.
L’uscita dell’inverter 3 viene riportata in ingresso, abbiamo un anello di reazione, sempre necessario
quando vogliamo realizzare un circuito oscillante.

Se in ingresso abbiamo un valore logico 1, in uscita al primo inverter ho un livello logico basso, in uscita al
secondo ho un livello logico basso, in uscita al terzo ho un livello logico basso e quindi cambierà l’ingresso
del primo inverter e lo stesso accadrà ripetutamente.
Ho quindi un oscillatore, circuito astabile, in cui l’uscita varierà tra i due livelli logici in modo alternato.
Per studiare questi circuito supponiamo che il tempo di propagazione delle porte sia lo stesso e pari a tau,
tempo necessario all’uscita per cambiare per effetto di un cambiamento dell’ingresso.
Non abbiamo uno stato stabile, scegliamo una condizione da cui partire, partiamo dal fronte in salita di v1.
Dopo un certo tempo tau il fronte di salita di v1 si ripercuoterà anche sul segnale v2, che era alto e pari a
VDD e dopo un tempo pari a tau dalla modifica dell’ingresso, v2 scenderà al livello basso.
Questa modifica si propagherà in uscita all’inverter 2 dopo un tempo pari a tau, e quindi l’uscita andrà al
livello alto pari a VDD.
Questo fronte in salita su v3 lo troverò come fronte in discesa su v1 dopo un certo tempo tau.
Troviamo quindi che il semiperiodo è durato 3*tau.
Il fronte in discesa su v1 si ripercuoterà dopo tau con un fronte in salita su v2 che si ripercuoterà su v3
come fronte in discesa, che si ripercuoterà su v1 dopo un altro intervallo pari a tau e quindi anche in questo
caso questo periodo è durato pari a 3 *tau.
Tutte e tre le tensioni sono onde quadre con un duty cycle pari al 50%.

Disegniamo le frecce che indicano le propagazioni.


Il periodo e la frequenza che abbiamo ottenuto sono pari a:

Ho quindi una frequenza del segnale dipendente dal numero di inverter che vado ad utilizzare (che deve
essere dispari).
Se N è il numero di inverter che andiamo ad utilizzare:

Ho una frequenza inversamente proporzionale al numero di inverter che ho utilizzato.


Questo circuito può avere anche un altro scopo, poiché la frequenza di oscillazione è inversamente
proporzionale a tau, può essere utilizzato per la misura di tau.
Una misura diretta di tau è molto complicata, mentre una misura indiretta può essere fatta con un circuito
di questo tipo.
Misurando la frequenza con un frequensimetro risaliamo al valore medio di tau.
Se i tau fossero infatti diversi otterrei il tempo medio di propagazione, mentre solo se avvessimo gli stessi
valori di tau otterrei il tempo della singola porta.

Memorie a semiconduttore
Le memorie possono essere realizzate con tecnologie molto diverse tra loro. Troviamo innanzitutto
memorie che consentono un accesso non sequenziale ai dati immagazzinati (quindi con tempo
sostanzialmente indipendente dalla posizione del dato), dette anche RAM (Random Access Memory) che si
distinguono tra “volatili”, nelle quali l’informazione permane soltanto in presenza della tensione di
alimentazione e “non volatili”, che sono in grado di conservare i dati anche in assenza della tensione di
alimentazione.
Queste ultime vengono di solito indicate come ROM (Read Only Memory) se hanno un contenuto
predeterminato in fabbrica o PROM (Programmable Read Only Memory) se il loro contenuto può essere
modificato dall’utente. Tra le memorie volatili si fa un’ulteriore distinzione tra quelle “statiche” (SRAM), le
quali mantengono i dati indefinitamente fintanto che viene mantenuta l’alimentazione e quelle
“dinamiche” (DRAM), nelle quali i dati devono subire un’operazione di “refresh” ogni pochi millisecondi,
altrimenti vengono perduti.
L’accesso alle memorie pu`o avvenire per gruppi di bit (byte, word, double-word) o un singolo bit per volta.

Architettura delle memorie

Per quanto riguarda l’architettura, tipicamente questi presentano una struttura bidimensionale, che
corrisponde a organizzare la memoria in forma matriciale, dove ciascun bit si trova all’incrocio tra una riga
(word line) e una colonna (bit line). Quest’ultima è inoltre tipicamente quadrata.
In questo modo i tempi di accesso della singola cella sia praticamente costante.
Inoltre l’accesso alla singola cella avviene attraverso degli indirizzi, non fornito direttamente ma attraverso
un decoder degli indirizzi, così da limitare anche il numero di contatti che il chip di memoria ha verso
l’esterno.
Abbiamo un decodificatore dell’indirizzo di riga, in cui vengono presentati gli M bit dell’indirizzo di riga
(word line) attraverso i quali viene selezionata la singola riga tra le 2^M-1 possibili e la stessa cosa avviene
attraverso l’indirizzo di colonna dove vengono forniti gli N bit dell’indirizzo colonna (bit line) e tramite un
decoder viene indirizzata la singola colonna.
Il circuito di uscita è diverso perché non solo devo poter scrivere nella cella di memoria ma anche leggere.
Abbiamo quindi un circuito di sense amplifier/driver dove il sense amplifier serve per interpretare
correttamente il valore logico contenuto nella cella di memoria e renderlo disponibile all’esterno, mentre i
driver servono per scrivere correttamente la tensione associata a quel valore logico all’interno della cella di
memoria.
L’ingresso-uscita è gestito attraverso un multiplexer/demultiplexer così che dato l’indirizzo di bit da fornire
o in uscita il dato o alla memoria in ingresso il dato che vogliamo scrivere.
Vediamo come viene realizzata la singola cella di memoria e come possono essere implementati questi
circuiti di servizio all’accesso della cella di memoria.

RAM statiche (SRAM)


La cella base della RAM statica CMOS è rappresentata nella figura seguente e consiste sostanzialmente in 6
MOSFET che realizzano un flip-flop SR con enable, i cui ingressi sono connessi alla bit line e alla bit line
complementata.
Abbiamo una cella di memoria che deve essere in grado di mantenere, finchè è alimentata, l’informazione
senza dover fare un refresh.

Quindi si va ad utilizzare un latch, due MOSFET di accesso che sono collegati a due bit line perché nella
SRAM è presente la bit line e la bit line complementata, le colonne sono quindi duplicate.
L’elemento di memorizzazione è il latch, in grado di mantenere il dato per un tempo indefinito purchè non
avvenga una sollecitazione dall’esterno a cambiare il suo stato.

Per quando riguarda la scrittura, supponendo di voler scrivere l’1 logico, ciò avviene forzando la tensione
sulla bit line al valore VDD e sulla bit line complementata il valore 0, connettendo effettivamente le bit line
a delle sorgenti di tensione.
Dopodichè si attiva la word line che va a comandare i gate dei due MOSFET di accesso e le tensioni che ho
applicato vanno a forzare il cambiamento di stato del latch interno in quanto forzo a VDD la tensione
sull’ingresso dell’inverter 1 e a 0 quella dell’inverter 2.
Il latch ha uno stato meta-stabile, quindi non è necessario che la tensione vada a VDD ma basta che salga al
di sopra di VDD/2 in modo che il latch possa evolvere verso VDD in modo veloce.
Se si deve scrivere il livello logico 0 si deve fare la cosa opposta.

Anche qui è sufficiente che VQ diventi inferiore a VDD/2 e la VQ negato superiore a VDD/2 per fare in modo
che il latch modifichi il proprio stato.
Il dimensionamento dei MOSFET che costitutiscono il latch, dei MOSFET di accesso che dei circuiti che
impostano i valori di tensione deve essere fatto in modo che il latch venga forzato a modificare lo stato, per
esempio allo stato 0 devo fare in modo che VQ se valeva VDD riesco a portarlo a un valore inferiore a
VDD/2.
Per quanto riguarda la lettura, si precarica innanzitutta la BL e la BL complementata a VDD/2.

La BL e la BL complementata sono conduttori che possono essere anche piuttosto lunghi se la matrice è
grande, ed oltre ad avere una certa resistenza avrà una certa capacità intrinseca equivalente.
Precaricare significa collegare un generatore alla bit-line che poi vado a staccare, infatti lasciandolo
attaccato la tensione sulla bit-line non potrebbe cambiare.
Staccandolo rimarrà a VDD/2 grazie alla capacità.
Dopo la precarica attivo la word line, quindi la tensione sulla bit line andrà a cambiare perché ponendo
word line a 1 ho posto i MOSFET di accesso nello stato ON. La tensione cambierà e in particolare se Q = 1, la
tensione sulla bit line sarà pari al valore che aveva prima più una variazione positiva, se Q = 1 avremo per la
bit line Q5 e Q3 ON e quindi andremo verso VDD, mentre sulla bit line complementata visto che Q negato
valrà 0, quindi Q2 è attivo, la bit line tramite Q6 e Q2 tende ad andare verso 0V.
Se invece porto Q a un valore logico basso avrò Q4 ON e quindi VBL avrà una variazione negativa, mentre
VBL complementata avrà una variazione positiva.
A seconda che ci sia memorizzato un 1 o uno 0 la tensione di bit line e bit line complementata si spostano.

Dopodichè si deve attivare il circuito di sense amplifier che interpreta la variazione, e quindi è in grado di
capire se la bit line si è alzata (quindi la corrispondente bit line complementata si è abbassata) o la bit line si
abbassata e quindi è in grado di capire se era memorizzato un 1 o uno 0 logico.
Le variazioni deltaV sono molto piccole per evitare che la lettura non sia distruttiva e che quindi il dato
contenuto nella cella non venga cancellato durante la cella, quindi la cella viene mantenuta aperta per il
tempo minimo possibile per cui bit line e bit line complementata si siano spostati per il minimo possibile in
modo che il sense amplifier sia in grado di interpretarlo correttamente.
Dopodichè la word line viene subito chiusa in modo tale che è vero che la tensione magari se c’era un 1 si è
leggermente abbassato ma poi il loop interno del sense amplifier ristabilisce il valore logico pieno.
Abbiamo quindi deltaV dell’ordine di 100mV, è deve essere in modo che il sense amplifier sia in grado di
intepretarlo.
Più il sense amplifier è sensibile, minore è la variazione che devo applicare, minore è il tempo che devo
lasciare aperta la cella e può subire interferenze dall’esterno e più inoltre è veloce la lettura che riesco a
fare.

Il sense amplifier è uno degli elementi più critici che devo progettare in modo che la mia memoria funzioni
correttamente.

RAM dinamiche (DRAM)


Perdo il vincolo che l’informazione debba essere mantenuta per un tempo indefinito e quindi posso ridurre
il numero di MOSFET, tra le varie tipologie la configurazione minimale è quella a singolo transistore.
Abbiamo un condensatore, fisico stavolta, di capacità CS, che sarà il nostro elemento di memorizzazione, e
un unico MOSFET di accesso alla capacità, il cui gate è collegato alla word line mentre l’altro terminale è
collegato alla bit-line.
Ho un’unica bit line e non ho una bit-line complementata perchè nelle DRAM si vuole ottenere la massima
compattezza, maggior quantità di memoria nel minor spazio possibile.
Si utilizza quindi un unico MOSFET di accesso e quindi un’unica bit line a cui è associata la sua capacità
parassita.
Questa è la cosiddetta RAM dinamica 1T (un solo transistore).
Supponiamo di voler effettuare la scrittura di un 1 logico nella cella di memoria.
Impostiamo vb1 a VDD, non abbiamo una precarica bensì il generatore viene mantenuto così da impostare
questo valore, la word line viene messa a 1 così da voler scrivere nel condensatore, se usiamo un NMOS per
scrivere non otterrò una tensione pari a VDD ma l’NMOS non è in grado di trasmettere completamente un
livello logico alto pieno, una delle controindicazione per cui voglio mantenere un unico MOSFET di accesso.
Nel caso della scritta dello 0, la VBL viene posta a 0, word line a 1, e sul condensatore trovo 0v in quanto
l’NMOS è in grado di scaricare completamente la memoria e quindi trovo il condensatore interno
completamente scarico.
Il dato memorizzato non si mantiene per un tempo indefinito perché posso avere sempre correnti di
perdita del condensatore che vanno a modificare la carica sul condensatore e quindi è necessario un
refresh ogni 5/10 ms.

La lettura è invece distruttiva a causa di come è costituita la memoria stessa.


Ricordiamo che le due capacità non sono dello stesso valore, Cs viene mantenuta al valore più piccolo
possibile perché significa piccolo ingombro, mentre la bit line è un conduttore molto lungo e quindi:

Per quanto riguarda la lettura il primo passo da effettuare è la precarica che andiamo a vedere con la
soluzione che riguarda la precarica a VDD/2 della bit line, in realtà ci sono diverse soluzioni.
Questo valore dipende da come andiamo a implementare il sense-amplifier, per la nostra implementazione
andiamo a utilizzare questo valore.
Attivo poi la word line e quindi metto in comunicazione i due condensatori, ho Cs, il MOSFET in conduzione
che schematizzato come una resistenza e la CB.
Le due capacità sono inizialmente a tensioni diverse, su CB avrò VDD/2 mentre su CS avrò VCS pari a 0 o
VDD – VT a seconda di cosa ho memorizzato.
Avverrà uno scambio di carica tra le due capacità in modo tale che alla fine del transitorio, quando non
scorrerà più corrente sulla resistenza, avranno lo stesso potenziale,
Quale sarà la tensione presenta sulla bit line dopo lo scambio di carica?

Non sono interessato al transitorio ma solo al valore finale e quindi posso utilizzare il principio di
conservazione della carica.
Avrò due condensatori con una certa carica ciascuno prima che il MOSFET entra in conduzione e al termine
della carica, la carica si sarà distribuita ma si sarà conservata.
Essendo che Q = CV, si ha che la carica sul condensatore CS e la carica sul condensatore CB prima di
chiudere WL a 1, dopo la pre-carica.
Dopo aver attivtao WL a 1, ed è terminato il transitorio, non passa più corrente su Ron avrò due
condensatori allo stesso potenziale.
La carica si è distribuita in modo che i due abbiano lo stesso potenziale, si trovano quindi al valore di VDD/2
+ deltaV.

Risolvendo:

Otteniamo deltaV:

Abbiamo che Cs e Cb non sono uguali e quindi essendo CB >> CS si ha che deltaV è circa uguale a:

Il deltaV è molto piccolo, qualunque sia VCs e VDD/2.


Ho un’indicazione del fatto che la lettura è distruttiva, perché su CS quello che troviamo come tensione è
sostanzialmente VDD/2 più una piccolissima variazione, se avevamo un 1 o uno 0 abbiamo VDD/2 +- deltaV.
Questo è dovuto al fatto che CB >> CS, inevitabile perché vogliamo CS la più piccola possibile, CB
inevitabilmente grande perché vogliamo una matrice con più celle possibili.
Se avevo memorizzato un certo valore logico, 1 o 0, su CS avrò:
Prendendo alcuni dati tipici:

Se indichiamo questi due valori precedenti di deltaV con deltaV(1) e deltaV(0), otteniamo che:

Il deltaV è distinguibile, ho due valori di segno diversom ma è piccolo e quindi il sense amplifier deve essere
in grado di discriminare questa variazione.
Troveremo 2.5V + 33mV e 2.5V – 83mV e quindi al termine della lettura dobbiamo necessariamente
rinfrescare il dato per ri-ottenere il valore iniziale.

Sense amplifier
Una possibile implementazioen del sense amplifier è la seguente.
Abbiamo un latch costitutio da 4 MOSFET collegato alla bit line e alla bit line complementata, latch che
devo attivare solo se necessario, quindi quando la bit line e la bit line complementata sono sbilanciate.

Per la nostra implementazione valutando la SRAM abbiamo che a seconda del valore logico la bit line aveva:

Mentre la bit line complementata invece:


Se attivo il latch quando ho raggiunto questa situazione mi trovo proprio nel punto metstabile, ed ecco
perchè si è scelto VDD/2 come tensione di precarica
Il sense amplifier è a questo punto sbilanciato sui due lati verso uno delle due condizioni, se consideriamo il
valore logico 1 il lato destro dove ho la bit line la Vbitline ha un valore sopra VDD/2 mentre il lato sinistro è
sbilanciato verso il basso e quindi l’anello di reazione interno al mio latch è tale da portare la bit line a VDD
e la bit line complementata a 0, molto velocemente.
Nel caso in cui avevamo uno 0 logico il latch è in grado di prtare la bit line a 0 e la bit line a complementata
a VDD.
Ma il latch deve intervenire solo se necessario ed ecco perché vengono utilizzati i MOSFET Q5, PMOS, e Q6,
NMOS.
Ho un PMOS e un NMOS comandati da fis e fis complementato, con fis segnale di abilitazione del sense
amplifier.
Devo usare un NMOS per collegare a ground e un PMOS per collegare a VDD perché il PMOS è in grado di
trasferire un valore logico alto pieno e l’NMOS è in grado di trasferirmi completamente un livello logico
basso pieno.
Quindi effettivamente il sense amplifier è in grado di andare a mutare lo stato della bit line verso VDD o
verso 0.
Il sense amplifier deve intervenire solo se necessario, perché non deve modificare la tensione sulla bit line e
bit line complementata fino a quando non sto facendo la lettura, ad esempio non può farlo durante la pre-
carica o andrebbe a imporre valori diversi da quelli che voglio.

Circuito di precarica

Il circuito di precarica è realizzato attraverso 3 MOSFET, abbiamo due MOSFET Q1 e Q3 comandati da un


segnale di precarica e se sono in conduzione impostano il valore di VDD/2 sulla bit line bit line
complementata.
Sarebbero sufficienti Q1 e Q3 a portare la bit line a VDD/2 ma si sua un transitore Q2 che considerandolo
come un interruttore chiuso fa in modo che la bit line e la bit line complementaata siano esattamente alla
stessa tensione, importante perché tutto il ciclo di letura deve iniziare con bit line e bit line complementata
esattamente con lo stesso valore.
All’inizio metto fip = 1, attivo quindi il circuito di precarica, disattivo il sense amplifier e anche la word-line
quindi la cella non è interessata, il sense amplifier è spento ed è accesa solo la precarica, questa è infatti la
fase di pre-carica.
La tensione sulla bit line viene impostata al valore di VDD/2, lo stesso vale per la bit line complementata.
Arrivati all’istante W disattivo la precarica, altrimenti la bit line sarebbe fissa a VDD/2, ora voglio che la
tensione sulla bit line venga modificata dal dato contenuto in memoriua, fip lo porto a 0, fis lo tengo ancora
a 0, necessario perché non devo ancora attivare il sense amplifier, non deve modificare la tensione sulla bit
line, ma voglio che sia la cella a farlo, la word line viene messa a 1, quindi inizio la lettura.
Se avrò memorizzato un 1 nella cella avrò che la tensione aumenterà di deltaV, se avevo memorizzato 0 si
abbasserà di deltaV.
Passato un certo intervallo di tempo necessario perché la tensione sulla bit line asssuma valore deltaV in
grado di essere letto correttamente dal sense amplfier, fip sarà sempre pari a 0, fis viene attivato, attivo il
sense amplifier ma chiudo anche la cella, non ho più bisogno che cella rimanga aperta, perché la bit line ha
acquisito il deltaV sufficiente affinchè il latch che uso come sense amplifier sia sbilanciato dal suo punto
metastabile.
In modo molto veloce è quindi in grado di arrivare al valore VDD se era memorizzato un 1 o al valore 0 se
era memorizzato lo 0.
Attivo il sense amplifier solo quando necessario.
Abbiamo un sense amplifier per opgni colonna, numero elevato che tra l’altro se mantenuti accessi quando
non necessari forniscono un consumo di potenza, che moltiplicato per ogni colonna non è trascurabile.
Quindi il sense amplifier viene tenuto spento sia per non consumare che per non interfrerie con il processo
di lettura, e acceso solo se le bit line sono opportunamente sbilanciate e quindi in grado di fornire la lettura
del valore contenuto nella memoria.
Sense amplifier per DRAM
Ad utilizzare lo stesso circuito il problema risiede nel fatto che nella DRAM per limitare il più possibile la
dimensione della cella abbiamo la presenza della sola bit line.
Per realizzare la lettura allora si può utilizzare lo stesso sense amplifier della SRAM applicando una
modifica.

Si prende la bit line e la si divide in due parti.


A metà della colonna divido a due parti uguali la bit line e pongo il sense amplifier tra le due parti di bit line.
Nell’esempio abbiamo un’unica bit line a cui sono collegate tramite i MOSFET 4 celle, collegate alla loro
word line, e quello che si fa è interrompere la bit line a metà, dividendo le celle in due parti uguali.
Il sense amplifier è lo stesso di quello visto prima, il nostro latch, e il circuito di precarica è anch’esso lo
stesso.
Dopodiché si aggiungono due celle aggiuntive, dummy cell (celle fantasma), per ogni bit line ne si
aggiungono due, una a destra e una a sinistra.
Si inserisce un circuito di precarica delle dummy cell, esattamente uguale al circuito di precarica visto, il cui
compito è quello di precaricare esclusivamente le dummy cell.
Per effettuare la lettura si fa innanzitutto la precarica sia delle bit line che delle dummy cell a VDD/2.
Il circuito di precarica caricherà il condensatore all’interno delle dummy cell esattamente a VDD/2.

Successivamente si attiva la WL della cella da leggere. Supponiamo di voler leggere la cella Wo.
Se attivo la WL0, che è una cella a sinistra, attivo WR.
Quindi se voglio leggere una cella a sinistra del sense amplifier attivo il comando di accesso alla dummy cell
posizionata a destra.
Il valore di tensione a sinistra del mio sense amplifier da VDD/2 aumenterà di un deltaV, stabilito dal dato
contenuto nella cella attivata da andare a leggere, mentre il valore di tensione della bit line di destra sarà
uguale a quello del contenuto della cella dummy, quindi rimmarà a VDD/2.

Ai capi del sense amplifier ho determinato un sbilanciamento, stavolta il latch interno è sbilanciato solo da
un lato, ma data la reazione interna è sufficiente che uno dei due lati sia sbilanciato rispetto al punto
metastabile per fare la commutazione e per darmi un valore a sinistra che sarà diventato VDD o 0, a
seconda del dato memorizzato, mentre quello di destra sarà sbilanciato nel verso opposto.
Al momento dell’attivazione della word line della cella di cui intendiamo leggere il contenuto, viene attivata
la dummy cell di destra se la cella da leggere si trova nel tratto di sinistra della bit line e, viceversa, viene
attivata la dummy cell di sinistra se la cella da leggere è nella porzione a destra della bit line.
Un lato rimane costante mentre l’altro dato viene sbilanciato in alto o in basso rispetto a VDD/2.
Se uso questo tipo di sense amplifier che è in grado di fornirmi esattamente il livello logico pieno in
tensione al termine della lettura, questo comportamento nella DRAM mi torna utile perché devo riscrivere
nella cella quando ho finito la lettura.
Quindi è sufficiente che al termine della lettura riattivo la word line che ho letto e a questo punto riscrivo
nella cella il dato corretto, VDD – VT (se accesso determinato dal singolo MOSFET) se c’era un 1 logico
oppure 0V se c’era uno 0 logico.

Decoder degli indirizzi di riga


Abbiamo necessità di realizzare un decoder visto che non è possibile avere un filo di indirizzamento per
ogni cella di memoria e quindi è encessario avere opportuni decoder che dato un indirizzo di riga andare ad
attivare la corrispondente word line, portandola al livello logico alto così da attivare i vari MOSFET usati
come interruttori di accesso alle celle di memoria.
Si potrebbe realizzare con una logica combinatoria mediante porta logica CMOS ma per le memorie visto
che hanno un impiego molto specifico e peculiarità specifiche invece di adottare decoder di tipo
tradizionale vengono progettati circuiti ad hoc, sviluppati apposta per ottimizzare al massimo le prestazioni.
Per semplicità consideriamo l’utilizzo di 3 bit di indirizzo, e in questo modo possiamo decodificare 8 word
line.
Se in ingresso abbiamo che i bit di indirizzo tutti a 0 voglio attivare la word line 0.
La word line 0 valrà 1 se tutti i bit saranno a 0, quindi posso scriverla come:

Lo stesso posso fare per le altre:

L’implementazione mediante NOR è una delle più classiche implementazioni, ed è detta wired-NOR, in cui
l’implementazione è ottenuta attraverso l’opportuno collegamento di fili, ottenuto non realizzando la porta
logica NOR con tecnologia CMOS ma con opportuni collegamenti e degli interruttori.
Viene realizzata una matrice in cui le righe orizzontali sono le nostre word line, e a questa matrice arrivano i
bit di indirizzamento e tramite degli inverter interni al decoder si ottengono anche i bit complementari.
Ciascuna word line è collegata a VDD tramite un PMOS comandato da un segnale attivo basso che attiva i
vari PMOS.
Abbiamo poi alcuni NMOS, N per ogni word line se abbiamo N bit, 3 per ogni wordline qui perché ho tre bit,
dei quali il gate è collegato al bit o al bit complementare, il drain è collegato alla word line e il source a
ground.
Inizialmente precarico tutte le word line a livello alto, dando il comando fip negato quindi fip
complementato viene posto a 0 e attivo tutti i PMOS e quindi tutte le word line sono portate al valore di
tensione VDD.
Dopdoichè disattivo la precarica, i PMOS vengono interdetti e scarico tutte le word line tranne quella che
voglio che rimanga a 1. Le precarico tutte al valore logico alto e dopodiché le scarico tutto e mantengo a
livello alto quella che voglio indirizzare in quel momento.
La carica è fatta attraverso i PMOS e la scarica attraverso gli NMOS, posizionati opportunamente in modo
che tale word line rimanga al livello alto solo quando è opportunamente configurata.
La W0 per esempio deve rimanere al livello alto quando tutti i 3 bit valgono 0 e quindi devo collegare i 3
NMOS ai bit A0, A1 e A2.
Quando avrò tutti 0 i tre MOSFET risulteranno tutti interdetti e quindi W0 rimarrà al livello alto.
E’ sufficiente che almeno uno dei tre sia a 1 per fare in modo che sia in conduzione e quindi che la porti a 0.
Ho realizzato un’operazione di NOR non con una porta logica ma usando degli opportuni collegamenti in
modo molto efficiente.
Un’inconveniente è che la memoria non può essere collegata direttamente alle linee ma nel mezzo ci deve
essere un interruttore perché all’inizio si precaricano tutte le word line e se fossero tutte collegate
attiveremmo tutte le word line della memoria.
Noi vogliamo che la WL sia collegata alla memoria solo quando ne è rimasta una a livello alto, devo quindi
isolare questo circuito con un interruttore opportunamente programmato in modo tale che si abbassi solo
quando l’indirizzo è pronto, per esempio con un semplice MOSFET di accesso che ha un certo comando fis
di selezione, che è comune a tutti e attiva tutti gli NMOS di passo in modo da dare il comando fis quando
sono sicuro che tutte le word line si sono scaricare tranne quella che doveva rimanere a 1.

Multiplexer-Demultiplexer delle bit line


Questo meccanismo può essere realizzato anche per il decoder degli indirizzi di colonna e quindi il
multiplexer/demultiplexer anche se devo consentire l’ingresso e l’uscita dei dati.
Viene quindi modificato leggermente prendendo ancora una volta il NOR decoder ma anche dei MOSFET in
serie alla bit line.

Avrò gli N bit di indirizzi e avrò quindi le 2^N configurazioni di uscita che vanno ad attivarmi i MOSFET di
accesso e quindi se per esempio metto l’indirizzo composto da tutti zeri mi andrà ad attivare il gate del
MOSFET collegato alla bit line 0 e quindi verrà attivata la bit line che sarà disponibile agli altri circuiti che
gestiranno l’ingresso e l’uscita.
Il multiplexer/demultiplexer per gli indirizzi di colonna sfrutta la stessa configurazione con l’aggiunta dei
MOSFET in serie alla bit line per poter attivare solo la colonna di mio interesse.
Questo è un NOR decoder diverso da quello degli indirizzi di riga, non ho quindi le word line ma bensì le bit
line. All’intersezione di ogni word line e ogni bit line ci sarà la cella.
Il bit mi va ad attivare il MOSFET collegato alla bit line.
Il decoder dell’indirizzo di colonna deve garantire sia l’ingresso che l’uscita dei dati.

Memorie ROM a diodi


Vediamo una memoria che mantiene un’alimentazione anche quando l’alimentazione viene rimossa, in
particolare delle ROM in cui l’utente non può intervenire con un contenuto predisposto dal costruttore.
Partiamo dalle memorie ROM più semplici vedendo le memorie ROM a diodi.
Abbiamo nelle righe orizzontali delle word-line, nelle righe verticali delle bit-line e dopodichè si inserisce un
diodo con anodo collegato alla word line e catodo alla bit line in tutte le posizione in cui si vuole
memorizzare un 1.

Nel momento in cui si attiva la word line collegandola a VDD, se W0 = 1 e quindi VW0 = VDD il diodo va in
conduzione e la bit line B0 andrà a livello alto, mentre per esempio la B1 rimarrà a 0 perché collegata a
ground dalla resistenza mentre la B2 sarà a livello alto.

Nelle celle dove voglio che sia memorizzato un 1 ci sarà il diodo e ogni volta che sarò l’alimentazione avrò
questo tipo di configurazione.
Si deve utilizzare un diodo e non una resistenza altrimenti si mette in cortocircuito varie bit line tra di loro
tramite la word line.
Nella realtà in forma integrata si preferisce non realizzarla in questo modo, ma si preferisce ricorrere a dei
MOSFET così da avere anche una maggiore separazione tra la bit line e la word line attraverso il gate dei
MOSFET.
Memorie ROM a MOS
E’ molto simile al decoder di riga visto prima.
Ho una matrice in cui le bit line sono collegate a VDD tramite dei PMOS che sono comandati attraverso un
segnale attivo basso di precarica, mentre la cella di memoria è coastituita dalla presenza o dall’assenza dei
MOSFET, costituiti in modo tale che il gate sia comandato dal valore della word line, mentre il drain è
collegato alla bit line e il source a ground.
Quando l’NMOS viene attivato non fa altro che portare a 0 il potenziale della bit line corrispondente.
Quindi nella cella in cui ho il MOSFET ho uno 0 logico memorizzato.

La memoria ROM viene fatta in modo molto semplice, e nella realtà i MOSFET vengono realizzati in tutte le
celle e solo negli step finali del processo produttivo decido quali MOSFET andare a collegare, se viene
lasciato flottante avrò memorizzato un 1 altrimenti se collegato con gate, source e drain come prima sarà
memorizzato uno 0 logico.
Posso avere due strategie per i PMOS, posso decidere di mantenere i PMOS sempre attivi ma in questo caso
la ROM dissipa molto, oppure posso decidere di attivare fip solo in fase di precarica, precaricando le righe e
poi alcune rimarranno alte mentre altre vengono portare basse dove c’è il MOSFET che le scarica,
ottenendo un pilotaggio di tipo dinamico dove precarico e poi scarico un po’ come nei decoder di riga.

Memorie ROM programmabili


Le ROM hanno lo svantaggio che l’utente non può intervenire sulla programmazione della ROM stessa.
Individuiamo tre famiglie principali:
- PROM (Programmable Read Only Memory), ROM in cui l’utente può effettuare la programmazione
ma senza poter tornare più indietro, possono essere programmate una sola volta.
- EPROM (Erasable Programmable Read Only Memory), programmabile e cancellabili ma la
cancellazione veniva effettuata attraverso delle radiazioni ultraviolette emanate da un particolare
dispositivo a cui doveva essere esposto il circuito estraendo il chip della memoria dal circuito che la
contiene, cancellazione off-line.
- EEPROM (Electrically Erasable Programmable Read Only Memory), dove anche la cancellazione
oltre alla scrittura poteva essere di tipo elettrico fornendo grossi vantaggi in termini di versabilità.
PROM
Il modo più semplice per realizzare un PROM è quello di collegare un MOSFET con il gate collegato alla
word line e il drain alla bit line con in serie a un fusibile che lo collega a ground.
Se prendiamo la matrice vista prima con la memoria ROM a MOS e all’interno colleghiamo un MOSFET di
questo tipo.

Se vogliamo che nella cella venga memorizzato uno 0 si lascia intatto il fusibile, visto che quando il MOSFET
verrà attivato porterà a 0 la bit line, mentre se si vuole che sia memorizzato un 1 si deve rompere il fusibile,
visto che il MOSFET non è più in grado di portare a 0 la bit line quando attivato.
In fase di programmazione devo decidere in quali celle avere un 1 logico e in quelle celle fare passare una
corrente elevata così che a causa dell’effetto termico si fonda il fusibile.
Questo tipo di ROM non potrà più essere recuperata, si possono rompere fusibili facendo diventare degli 0
degli 1 ma non si può fare il viceversa.

EPROM
Vediamo delle ROM che posso programmare in modo elettrico.
L’elemento alla base delle EPROM e delle EEPROM è un MOSFET particolare detto MOSFET a gate flottante,
floating gate.

Supponiamo di prendere il nostro substrato di tipo P, abbiamo due gate uno il più vicino al canale
completamente immerso all’interno dell’ossido di sicilio, con nessun contatto diretto verso l’esterno,
completamente immerso in un materiale isolante.
Al di sopra di questo gate ne abbiamo uno che ha un contatto con l’esterno. Il gate superiore è collegato al
terminale esterno di gate e svolge una funzione analoga a quella del gate di un normale MOS.
Una struttura di questo tipo può essere utile per memorizzare un’informazione.
La presenza di uno 0 o di un 1 logico è dipendente dalla quantità di carica presente all’interno del gate
flottante. Supponiamo di essere in grado di portare degli elettroni all’interno del gate flottante.
In tal caso il comportamento della struttura cambia.
Per avere la conduzione devo creare il mio canale tra source e drain costituito dai miei elettroni che si ha
per una VGS >= VT, canale costituto da elettroni e se ho quindi la presenza di elettroni nel gate flottante
questi respingeranno gli elettroni che hanno formato il canale.
Se ho quindi degli elettroni nel gate flottante questi ostacoleranno la formazione del canale e quindi devo
applicare una tensione di gate superiore per poter realizzare il canale, la presenza di elettroni aumenta il
valore della tensione di soglia.

Se vado disegnare la transcaratteristica del dispositivo, accade che se il mio gate flottante è scarico ho la
caratteristica con un certo valore di VT mentre se sono riuscito a introdurre degli elettroni nel gate flottante
la tensione di soglia mi si alza.

Se poniamo questo dispositivo nella cella di memoria, quando attivo la cella applico la tensione della word
line sul gate e se vado a utilizzare come tensione di lettura una VGS intermedia tra il valore di VT1 e VT2
accade che il mio MOSFET risulterà in conduzione oppure no a seconda che il gate flottante sia carica o
scarico.
Se è scarico il MOSFET va in conduzione e quindi scaricherà la bit line memorizzando uno 0, mentre se il
gate flottante è carico il MOSFET non andrà in conduzione e quindi la bit line rimarrà al valore alto e a
quella cella avrò come valore logico 1.
Ho quindi un MOSFET con una VT programmabile che dipende dal fatto che nel gate flottante sono riuscito
o meno a inserire elettroni, tensione di soglia bassa se nel gate flottante non ho elettroni, tensione di soglia
alta se ho la presenza di elettroni.
Il problema ora è capire come portare/togliere gli elettroni dal gate flottante.
Quest’ultimo è immerso in un materiale isolante e quindi normalmente gli elettroni che ho inserito vi
possono rimanere per un tempo molto lungo realizzando una sorta di memorizzazione.
Per portare elettroni nel gate flottante e quindi per quanto riguarda la carica, visto che gli elettroni ci
possono arrivare solo dal canale, gli elettroni devono superare una barriera di potenziale imposta dal
materiale isolante.
Nelle EPROM si impone una tensione VDS piuttosto elevata (18 V), ho una forte conduzione di elettroni e gli
elettroni assumono una forte energia visto che c’è un forte campo elettrico da Source verso Drain, sono
infatti detti elettroni caldi o hot electron, elettroni con un’energia molto più alta di quella termica di
equilibrio.
Si impone anche una tensione sufficientemente grande tra il gate superiore e il canale, VGS (25 V), in modo
da favorire il trasferimento di elettroni caldi nel gate flottante, visto che questi elettroni acquisiscono un
potenziale tale sia per superare la barriera ma anche per passarci attraverso per effetto “tunnel”,
meccanismo quantistico.
In queste condizioni di tensioni applicate si può avere una condizione di passaggio degli elettroni così da
farli andare a depositare all’interno del gate flottante.
Man mano che gli elettroni occupano il gate flottante gli elettroni presenti tenderanno a respingere gli
ulteriori elettroni che cercano di arrivarci, si caricherà quindi a un valore di carica auto-limitata.

Per la scarica del gate flottante invece, non posso fare in modo gli elettroni acquisiscono un’energia elevata
con un campo elettrico in modo da renderli nuovamente caldi.
Quello che accade è che devo fornire un’energia sufficiente per superare questa barriera o per attraversarla
per effetto tunnel.
Si fornisce agli elettroni l’energia per superare la barriera sotto forma di radiazione a ultravioletti con una
lunghezza d’onda opportuna, quest’ultima fondamentale perché l’energia associata a ciascun fotone che
compone la radiazione è legata alla lunghezza d’onda.
L’energia associata ai fotoni è pari al prodotto tra la costante di planck e frequenza della radiazione, la
quale è pari al rapporto tra la velocità della luce e la lunghezza d’onda.

A numeratore ho delle costanti e quindi la lunghezza d’onda deve essere sufficientemente piccola così da
dare un’energia tale da essere maggiore di un certo valore.
La lunghezza d’onda che lo consente è di 253.7nm.
Esponendo la memoria a una radiaziona ultravioletta si fa in modo che tutti gli elettroni presenti nel chip
vengano riportati completamente nel canale.

EEPROM
Il passi avanti successivo è stato quello di modificare la configurazione del MOSFET a gate flottante
riducendo lo spessore dell’ossido, riducendo in una parte lo spessore così da potr consentire la transizione
degli elettroni dal drain al gate flottante attraverso l’applicazione di un campo elettrico, siain un verso che
nel verso opposto.

Per poter caricare il gate flottante si applica una tensione VGD elevata (18V) così la barriera di energia
potenziale tra canale e floating gate è così sottile da consentire il passaggio di elettroni verso il floating gate
stesso per effetto tunnel.
Per scaricare il gate flottante si impone una tensione VGD di segno opposto (-18V).
Questo dispositivo prende il nome di FLOTOX (Floating Gate Thin Oxide MOS).

Questo tipo di floating gate presenta anche dei problemi, supponiamo di implementare la memoria in
questo modo:

Prendiamo 4 celle in ognuna delle quale inseriamo un MOSFET programmabile all’interno della quale ci sarà
un 1 o un 0 a seconda se il gate flottante è scarico o carico.
Supponiamo di voler programmare la cella (i,j) posizionandoci degli elettroni nel gate flottante,
aumentando la tensione di soglia e quindi memorizzandovi un 1.
Dobbiamo applicare tra G e D una tensione di 18V e per farlo devo collegate la WL i a 18V e la BL j
mantenendola a 0V:

Le altre celle devono però rimanere al loro valore attuale.


Se valutiamo la cella a destra, sulla stessa word line, avremo 18V e quindi se voglio evitare che la cella
(i,j+1) non venga modificata, devo fare in modo che la BL j+1 venga posta a 18V, facendo in modo che sia:

La cella sottostante non la voglio selezionare e quindi la i+1 la mantengo a 0V, la bit line j è a 0V e quindi la
cella (i+1)j sarà a 0V così da non modificare il valore contenuto in essa.

Per quanto riguarda la cella i+1,j+1 avrà 0 sulla word line i+1 perché ho dovuto lasciare inalterata quella a
sinistra ma la bit line j+1 è a 18V e quindi:

Quindi la cella (i+1, j+1) viene cancellata.


Programmando la cella (i,j) cancello la cella (i+1, j+1).
C’è un altro problema, la cella (i, j+1) ha gate e drain allo stesso potenziale, entrambi a 18V, con il source a
0V e quindi guardando le condizioni in cui mi sono posto, visto che gate e drain sono allo stesso potenziale
ho che il MOS è saturo. Il MOSFET va in saturazione e quindi ho dissipazione di potenza.
Succede quindi che per programmare la cella (i,j) la cella (i,j+1) va in saturazione e lo sono anche tutte
quelle della stessa word line e dissipano tutte potenza, perché vanno protette e quindi vanno tutte in
saturazione.
Inoltre, mentre la scrittura del gate flottante è un fenomeno auto-limitante, non lo è la cancellazione.
Quando si va a rimuovere gli elettroni non c’è nessuna condizione di blocco e quindi alcuni MOSFET
possono raggiungere una tensione di soglia negativa.

La soluzione adottata è quella di una cella elementare più complessa, in serie al MOSFET viene messo un
altro MOSFET, un MOSFET di selezione.
La cella sarà costituita da un MOSFET programmabile a gate flottante col gate collegato word bit line i-
esima, dopodichè non viene collegato direttamente alla bit line j-esima ma il collegamento viene fatto
attraverso un MOSFET di selezione con il gate comandato da un altro comando sel i, aggiuntivo, che va a
selezionare tutti i MOSFET di accesso di quella riga e anche il collegamento a ground non viene fissato a
ground ma avviene attraverso un collegamento a una colonna gnd j e si stabilisce di volta in volta se
collegarlo a 0 o mantenerlo flottante.
Per quanto riguarda la scrittura della cella i-esima, devo avere l’accesso e quindi sel i la portiamo a 18V,
anche la i viene portata a 18 V e la j viene posta a 0V.
Su i devo avere 18V e su j 0V così da avere una VGD pari a 18V e quindi si attirano gli elettroni all’interno del
gate flottante.
Il gnd j nell’operazione di scrittura non serve e quindi lo lascio flottante, il MOSFET non è collegato a GND.
Sulle celle delle altre righe, non dovendo selezionare quelle celle manteniamo sel(i+1) a 0, anche i+1 la
lascio a 0 e questo mi risolve il problema che continuo a non scrivere sulla cella sottostante.
Vediamo se risolviamo il problema di non cancellare la riga sottostante e non dissipare in quella affianco.
Metto j+1 a 18V visto che non devo scrivere in quella affianco, quella affinaco riceverà la selezione i perché
è la stessa, riceverà la word line i e metto allora la bit line j+1 in modo tale che VGD = 0,
Quella affianco dissipava perché conduceva una forte corrente dal drain verso il source e il source era
collegato a GND. Mettendo però adesso flottante il GND j+1 non ho più problemi di dissipazione sulla cella
affianco, che anche se ha G e D a 18V ha il source flottante e quindi non può condurre.
Ho protetto la cella (i+1), (j+1) perché la selezione è uguale a 0 e quindi tutte le celle nella riga sottostante
non sono accessibili perché il loro MOSFET di accesso viene mantenuto interdetto tramite il comando
seli+1.

Nel caso di cancellazione avrò una situazione simile, devo selezionare la cella (sel i = 18V), devo invertire le
tensioni tra i e j perché devo avere VG e VD opposte, gnd j rimane lo stesso, sel i+1 rimane a 0V perché non
devo selezionare sotto, lo stesso i+1, non devo scrivere e quindi j+1 deve essere uguale a i e gnd i+1 deve
rimanere flottante.
L’operazione è duale, devo invertire i con j per cancellare e devo tenere conto che j+1 deve essere uguale a
i altrimenti le altre celle sulla stessa riga vengono toccate.

Infine per quanto riguarda la lettura, si prevede che devo attivare la selezione e lo faccio con una tensione
più bassa (5V) perché non devo andare a nulla.
Sulla i applico ad esempio 2.5V, sul gate applico quindi un valore intermedio tra la tensione di soglia
quando ho il gate flottante privo e pieno di cariche e in questo modo con questa tensione di soglia che vado
ad utilizzare sul gate il MOSFET sarà in conduzione oppure no a seconda del contenuto di cariche del gate
flottante.
Quindi se il floating gate è scarico il transistore conduce e in uscita abbiamo uno 0 logico; se il floating gate
è invece carico il transistore non conduce e in uscita otteniamo un 1 logico.
Quindi sulla bit line j avrò il contenuto della cella (i,j), dato Di,j, e stavolta la gndj devo metterlo a 0 perché
se il MOSFET va in conduzione con questa tensione di gate la bit line (i,j) viene forzata a 0 mentre se invece
il MOSFET resta interdetto vuol dire che la bit line (i,j) rimarrà al suo valore.
Poiché leggo solo la riga i-esima seli+1 e i+1 vengono tenuti a 0 e poiché si legge tutta una riga su j+1 avrò il
contenuto della riga (i,j+1) e quindi troverò Di,j+1 e anche in questo caso Gnd(j+1) va tenuto a 0 perché
devo andare a leggere tutte le varie colonne.
Ho complicato la struttura ma sono riuscito ad ottenere in questo caso una lettura, una programmazione e
una cancellazione corretta della cella.

Convertitore Digitale/Analogico (D/A o DAC)

Un DAC riceve in ingresso un insieme di bit e fornisce in uscita una tensione Vo analogica.
Per effettuare la conversione è necessaria una tensione di riferimento Vref, in quanto la tensione di uscita
che si ottiene è una frazione della tensione di riferimento, che deve essere una tensione stabile, e la
tensione di uscita è una frazione della Vref:

Dove la frazione F è data dalla parola digitale che si ha in ingresso, dove per un convertitore a N bit:

Due parametri di merito per la valutazione delle caratteristiche di un convertitore digitale analogico sono la
minima variazione della tensione di uscita, che è la tensione che si trova in uscita quando si ha in ingresso
una parola il cui valore decimale corrispondente al numero 1.
Un’altra quantità è la tensione di fondo scala che corisponde col valore massimo della tensione di uscita,
che non è Vref ma è pari a:

Quindi 2^N-1* VLSB, perché il valore più alto che si ottiene con N bit è 2^N-1.
La caratteristica di ingresso uscita del nostro convertitore è la seguente.

Sull’ingresso abbiamo un certo numero di bit, dove qui ne abbiamo 3, e in uscita abbiamo i corrispondenti
valori di tensione, qui normalizzati rispetto a Vref e quindi abbiamo una frazione della Vref.
La caratteristica non è una retta ma bensì un insieme di punti perché l’ingresso può assumere solo un
numero discreto di valori.
Notiamo che il valore massimo della tensione è 7/8 quindi 2^N-1/ 2^N.
Per la loro implementazione possiamo usare diverse configurazioni.

Convertitore D/A con resistori a pesi binari


Questa implementazione consiste in una rete di N resistenze dove N è il numero di bit del DAC.
Il circuito è costituito da N resistori a pesi binari (R, 2R, 4R, … 2^(N-1)R) e la rete resistiva viene alimentata
dalla tensione di riferimento VREF.
Ciascun resistore è collegato a un deviatore la cui posizione assunta viene determinata dal corrispondente
bit che comanda il deviatore.
Questi resistori sono tutti a pesi binari, scalati in modo binario.
Gli interruttori sono comandati dalla parola D di N bit e, in particolare, S0 dal bit meno significativo d0
mentre SN-1 dal bit più significativo dN-1.
In particolare se il bit è uguale a 0 il deviatore si porta verso ground, mentre se di vale 1 connette la
resistenza a un amplificatore operazione reazionato con una resistenza Rf il cui terminale non invertente è
collegato a ground.
Utilizzando il principio del ccv possiamo dire che il terminale – è una massa virtuale, quindi considerando il
singolo interruttore possiamo verificare che su di esso ci scorrerà la stessa corrente sempre, e sarà data da
Vref/R per R e andrà o verso ground o verso la massa virtuale.
Nella resistenza affianco invece sarà Vref/2R e così via, in particolare la corrente via via si dimezza.
Queste correnti dove si ha il deviatore nella posizione 2 vengono sommate tutte assieme, vanno in ingresso
al sommatore e vengono fatte scorrere attraverso Rf.
La corrente io che scorre in Rf sarà la somma delle correnti che sono presenti quando il corrispondente bit
di controllo vale 1.

Nell’espressione che si ricava è possibile mettere in evidenza la quantità indicata per ottenere poi il valore
decimale della nostra parola D.
Quindi la vo essendo che io scorrerà in Rf:

Otteniamo una tensione di uscita proporzionale al valore di D, valore decimale di ingresso.


Tra parentesi tonde otteniamo il valore di VLSB visto che v0 è dato da D * VLSB.
Questa soluzione presenta una difficoltà dovuta al fatto di avere della resistenze in peso binario e
all’aumentare del numero dei bit si devono ottenere un numero elevato di resistenze, le quali devono
essere molto precise, garantendo che ognuno abbia un rapporto pari a una potenza di 2 rispetto all’altra.
Si utilizza questa implementazione tipicamente fino a 4 bit.
Inoltre Vref deve essere perfettamente stabile e i deviatori devono essere inoltre perfettamente ideali.
Convertitore D/A con rete a scala R-2R
In questo circuito come si può notare, per lo stesso numero N di bit si utilizzano un numero doppio di
resistenze, rispetto al circuito mostrato precedente, che però assumono solo i valori R e 2R.
Il principio è sempre lo stesso e consiste nell’avere correnti scalate in peso binario.
Nei rami verticali troviamo sempre resistenze 2R e tra due rami verticali si ha una resistenza pari a R, tranne
l’ultima che è pari a 2R e collegata al comune.

Se ci concentriamo sull’ultimo nodo e valutiamo la resistenza vista da quel nodo guardando verso destra,
quello che si ottiene è il parallelo di 2R e 2R e quindi la resistenza vista è esattamente pari a R.
Avremo successivamente una resistenza R che va in serie a R e un altro ramo con una resistenza pari a 2R e
la resistenza vista sarà ancora pari a R e così via.
Facendo la rete in questo modo accade che se valuto la resistenza vista in ogni nodo i, si ottiene:

Questo può esserci d’aiuto perchè se indico con Iref la corrente erogata da Vref, vede una resistenza 2R
verso il basso e lo stesso dopo, visto che avremo la serie tra R e R e quindi si dividerà in due parti uguali.
Pertanto, la corrente che scorre verso la destra di ciascun nodo è uguale alla corrente che scorre verso il
basso a massa. In pratica, la corrente che entra da sinistra in un nodo si divide in due parti uguali, una verso
il basso e una verso destra.
La corrente su R dopo 2R verso il basso e poi dinuovo 2R, quindi la corrente di riferimento si divide
esattamente in parte uguali e le correnti nei vari rami sono scalate di 2 a ogni ramo e poi il concetto è
uguale a quello precedente.

Nel primo ramo ci scorre una corrente Vref/2R e così via si dimezzerà procedendo verso destra.
Identificando la vo, avremo:

E’ cambiato il valore numerico del VLSB rispetto a prima se utilizzo gli stessi valori ma ottengo comunque
una tensione legata alla parola D presentata in ingresso.
Devo utilizzare più resistenze ma solo di due valori, rimangono le problematiche della stabilità della Vref e
dell’idealità degli interruttori.

Convertitore Analogico/Digitale (A/D o DAC)


Un convertitore analogico-digitale a N bit è un dispositivo che accetta in ingresso i campioni di un segnale
analogico e fornisce, per ogni campione di ingresso, la corrispondente rappresentazione digitale ad N bit ai
suoi N terminali di uscita
Quest’ultimi compiono un’operazione inversa, hanno in ingresso una tensione e producono un’uscita
digitale.

Poiché il segnale di ingresso è un segnale continuo mentre quello di uscita è discreto, la curva assume
l’aspetto di una gradinata.

Poichè si ha la conversione di una quantità continua a una discreta avremo un errore di quantizzazione.
Tale errore viene definito come la differenza tra il valore attuale dell’ingresso analogico e il valore
dell’uscita digitale riportato in tensione.
Questo è sempre presente in presenza di un DAC, e dipende da come è fatto il convertitore.
Se la commutazione tra una configurazione e la successiva avviene in corrispondenza di 1/8, 2/8, ecc.
l’errore di quantizzazione varierà tra 0 e 1*VLSB.

Questo perché se la tensione è nulla abbiamo un errore nullo, poi finchè arriviamo a 1/8 continuiamo a
associarci 0 anche se non sono 0 e quindi l’errore aumenta man mano che ci si avvicina a 1/8*Vref per poi
annullarsi arrivati a 1/8 Vref, perché diamo a 1/8*Vref diamo la configurazione 001 che convertita dà
esattamente 1/8*Vref.
Graficamente l’errore è la differenza tra la gradinata e la bisettrice, che rappresenta la conversione
analogica di tipo perfetto ma non si può realizzare perché abbiamo un numero discreto di valori di uscita.
Molto spesso si preferisce avere l’errore di quantizzazione centrato nello zero cosi da avere una variazione
complessiva di ± ½ LSB. Questa condizione si può ottenere facilmente traslando la caratteristica a sinistra di
½ LSB.
La caratteristica viene quindi traslata a sinistra di 1/16*Vref e quindi se la commutazione avviene per
1/16*VLSB, 2/16*VLSB gli errori si annullano in questi punti, partono da 0 aumentano, poi si annullano e
poi cambiano di segno visto che la gradinata va sopra la bisettrice, poi ri-aumenta e così via.
Nell’ultimo punto l’errore ritorna sopra e per risolvere questo si può fare in modo che il convertitore invece
di arrivare a 8/8Vref si fermi prima ma che la tensione di ingresso arrivi a 15/16Vref.

Convertitore A/D a singola rampa (a integrazione)


Questi convertitori sono i più lenti e per il suo funzionamento devo creare una rampa, tensione che cresce
linearmente nel tempo. La rampa la ottengo in modo semplice integrando una tensione costante.
Si prende la nostra Vref di riferimento nota e costante e la integro nel tempo ottenendo una tensione di
uscita che cresce linearmente.

Di questa rampa conosco tutto se conosco Vref.


Successivamente si misura il tempo che questa rampa partendo dal valore 0 impiega a essere uguale alla
mia tensione di ingresso, vin, incognita che devo convertire.
Per convertirla devo ottenere un numero in uscita proporzionale al valore di vin, misuro allora il numero di
impulsi di clock che impiega la mia rampa a diventare pari alla mia tensione di ingresso.
Misuro quindi il tempo di integrazione affinchè l’integrale della tensione Vref diventa pari alla tensione
incognita. Più piccolo sarà il valore della tensione di ingresso e minore sarà il tempo richiesto.
Il rapporto tra due tc1 e tc2 sta allo stesso rapporto di vin1 e vin2, la misura del tempo di clock può essere
interpretato come una corretta conversione digitale della mia tensione di ingresso.
Per realizzare questo circuito è necessario un integratore in cui in ingresso applico Vref e in uscita ottengo
la tensione vc, serve anche un circuito che fa il confronto tra vc e vin per capire l’istante in cui assumono lo
stesso valore, quindi un comparatore che confronta due tensioni, e poi un contatore che conta il numero di
cicli di clock che sono passati dall’inizio finchè le due tensioni sono diventati uguali.
Servirà poi un circuito di controllo che gestisce le varie operazioni.
Vediamo lo schema a blocchi del circuito.

Troviamo l’integratore di Miller, e ipotizzando Vref positiva mettiamo -Vref poiché vogliamo una rampa
positiva e l’integratore di Miller sappiamo che è invertente, e la tensione di uscita vc(t) deve essere
confrontata da un comparatore con la tensione vin che però deve rimanere costante durante tutto il tempo
in cui viene generata la rampa e quindi viene inviata ad un circuito di sample/hold che mantiene il valore
della vin e il comparatore avrà uscita alta quando vin > vc e uscita bassa nel viceversa.
Ho una commutazione in uscita quando le due tensioni diventano uguali, e l’uscita viene mandata in
ingresso a una logica di controllo che riceve in ingresso il clock visto che devo contarlo.
Il clock viene mandato in ingresso a un contatore, che una volta resettato dalla logica di controllo inizierà a
contare i cicli di clock finchè la logica di controllo che lo risetta dinuovo.
Prima di resettarlo il suo valore viene memorizzato in una serie di latch che mi danno il valore contato dal
contatore stesso.
Il reset comanda anche un interruttore che ha il compito di azzerare vc alla fine della conversione,
scaricherà il condensatore e la tensione sul condensatore si annulla e riparto quindi da 0.
Quindi quando la tensione di uscita dell’integratore supera il valore della tensione di uscita del circuito S/H,
il comparatore commuta e segnala al circuito di controllo di memorizzare nel latch il valore che ha
raggiunto il contatore. Il circuito di controllo provvede poi a generare il segnale di reset che serve sia per
resettare il contatore sia per azzerare l’uscita dell’integratore preparando il sistema ad un’altra operazione
di conversione
Abbiamo:

La condizione iniziale è nulla, e abbiamo tc che è il tempo di conteggio, numero dei cicli di clock.
Infatti si fa l’ipotesi che l’uscita dell’integratore sia nulla all’istante t=0 in cui iniziamo ad integrare e a
contare gli impulsi di clock.
Il numero di impulsi di clock conteggiato sarà proporzionale al valore della tensione di ingresso che
vogliamo convertire.
Fermo il conteggio quando questa è uguale a Vin e quindi tc vale:

La parola D che ho ottenuto in uscita:

Ho quindi un numero espresso in N bit proporzionale a Vin.


Questo circuito presenta però alcune problematiche insite in questa espressione.
Il numero D dipende da vin, Vref, inevitabile perché le due vengono confrontate, ma dipende anche da R e
C del mio integratore e anche del periodo di clock.
E’ in grado di fornire conversioni ma l’uscita dipende fortemente da variazioni del periodo del clock ad
esempio, che potrebbe avere variazioni, e lo stesso per la capacità che può nel tempo degradare.
Si cerca di avere una conversione indipendente da questi parametri.
Questi convertitori sono lenti perché devo aspettare che la rampa arrivi a vin, quindi se vin è pari al fondo
scala devo contare 2^N-1 cicli di clock e ciò richiede un certo tempo.

Convertitore A/D a doppia rampa


Posso eliminare la dipendenza da quei valori utilizzando un convertitore ancora più lento, deve realizzare
infatti due rampe.
Ho due intervalli di tempo e due rampe, una rampa in salita e una in discesa e lo scopo è partire da 0 con
una rampa in salita, arrivare a un certo valore e poi tornare a 0 con una rampa in discesa.

Le due rampe sono l’integrazione di due tensioni che devono essere però una di segno opposto all’altra e
quindi il circuito ha bisogno di due tensioni.
Durante il primo intervallo di tempo vado a integrare la tensione incognita e lo faccio per un intervallo di
tempo noto, pari al massimo numero di intervalli di clock che posso contare, quindi 2^N cicli di clock.
Se ho un contatore parto a conteggiare i cicli di clock e arrivo al fondoscala del contatore.
Il valore della tensione finale a cui arrivo, valore massimo che ottengo alla fine di questa integrazione (su 3
bit 8 periodi di clock), sarà a una tensione che dipende dal valore di vin, e se v2 > v1 vin2 > vin1, infatti se la
tensione che integro è più grande a parità di tempo avrò una tensione più grande.
Successivamente integro una tensione nota, Vref, di segno opposto a vin, e misuro il tempo che impiega vc
a ritornare a 0. La scarica è sempre a tensione costante e le rette sono parallele infatti, faccio l’integrale di
Vref in entrambi i casi.
Il valore di picco a cui si arriva nella prima fase è proporzionale al segnale di ingresso. Nella seconda fase,
invece, la pendenza delle curve è costante in quanto si integra in entrambi i casi la tensione costante Vref.
Come mostrato in figura, l’intervallo di tempo necessario per tornare a zero è proporzionale al valore di
picco ottenuto nella prima fase, ovvero alla tensione di ingresso.
Nel primo intervallo di tempo vado a integrare una tensione incognita per un tempo noto e
successivamente dado a fare un integrale di una tensione noto per un tempo incognito che vado a misurare
e può essere ricondotto al valore della tensione incognita che avevo durante il primo semiperiodo.
E’ più lento perché il primo periodo deve essere pari a 2^N cicli di clock, e non posso avere di meno
altrimenti non sarei in grado di misurare la tensione massima possibile, anche il secondo conteggio deve
arrivare al massimo e ci può arrivare solo se ci è arrivato il primo.
Il circuito si complica un po’, gli elementi circuitali sono gli stessi.

Prima di iniziare il ciclo di conversione viene inviato il segnale di reset che azzera il contatore e chiude
l’interruttore ai capi del condensatore scaricandolo in modo che la tensione d’uscita dell’integratore sia
nulla. Il ciclo di conversione inizia con il collegamento dell’ingresso analogico dell’integratore all’uscita del
circuito di S/H che ha campionato la tensione di ingresso che ipotizziamo per comodità negativa.
Ho l’integratore dove stavolta devo commutarlo, in una fase integra Vin e in un'altra Vref, nell’esempio in
figura si è ipotizzato vin < 0 e vref > 0, ma in generale l’importante è che siano opposte così ho in un caso
una pendenza positiva e in un’altra una pendenza negativa.
Ho ancora poi gli altri elementi ma ho due interruttori, quello di reset che va a resettare il condensatore alla
fine di tutte e due le rampe, per essere sicuro da ripartire da 0, ma devo fare una commutazione anche
quando il contatore va in overflow, comando che viene mandato al deviatore che fa sì che integro vin
finchè vado in overflow e poi vref finchè vado a 0 e poi il risultato del conteggio viene salvato nel latch.
La tensione di uscita del comparatore inizierà ad aumentare e allo stesso tempo il contatore inizia la sua
operazione di conteggio degli impulsi di clock a frequenza fissa. Questa fase di conteggio continua fino a
quando il contatore non arriva a contare 2^N impulsi e il segnale di over-flow (O/F) segnala questa
condizione.
Il circuito di controllo provvede a resettare il contatore e spostare l’interruttore in ingresso all’integratore
sul segnale Vref che ipotizziamo positivo.
La tensione in uscita all’integratore comincia a diminuire e contemporaneamente il contatore inizia il
conteggio. Questa fase dura fino a quando la tensione non diventa nulla. Infatti, quando la tensione in
uscita all’integratore diventa pari a zero, il comparatore commuta e segnala al circuito di controllo di
interrompere il conteggio, salvare il valore nel latch e inviare il comando di reset per il contatore e il
condensatore.
Il conteggio inizierà quando inizio a integrare Vref e inizia quindi la rampa a pendenza negativa e si fermerà
quando arriva a 0, ecco perché il confronto viene fatto con 0.
Perdendo più tempo a effettuare la conversione ho guadagnato in termini di precisione e ripetibilità della
conversione?

Nella fase 1 integro vin per un tempo noto e quindi vc sarà l’intergale della vin (prendiamo il modulo per
semplicità) diviso RC moltiplicato per il tempo di integrazione, e poiché conto fino al fondo scala ho 2^N
cicli di clock.
Indichiamo con Vpicco la tensione in uscita dall’integratore alla fine della prima fase. Tale valore sarà dato
da:

Durante la seconda fase, la tensione d’uscita dell’integratore inizierà da tale valore e decrementerà fino ad
arrivare a zero
Durante questa fase, la tensione in uscita all’integratore varrà:

L’integrale di vc si porta al valore 0, tensione iniziale meno il risultato dell’integrazione deve essere nullo.
Quindi per quanto riguarda il valore di D:

Ottengo questo importante risultato in cui la parola D che ottengo in uscita è pari al modulo di Vin
moltiplicato 2^N/Vref, conversione immune dalle variazioni delle componenti circuitali e dal clock.

Cosa che funzione se nelle due fasi si utilizza lo stesso integratore e lo stesso clock nelle due fasi, perché le
variazioni si ripercuotono in modo uguale tra le due fasi.
Convertitore A/D flash
I convertitori a rampa sono sicuramente lenti, si può utilizzare in alternativa un altro tipo di convertitore più
veloce, detto convertitore flash.
Per determinare la conversione di una tensione avrò bisogno di un certo numero di livelli e dovremo vedere
la tensione di ingresso a che valore è rispetto alla tensione di riferimento Vref, e il valore della parola
digitale in uscita è legata al rapporto tra vin e Vref.
Nel convertitore flash l’idea è creare tramite una rete di resistenza i valori di confronto, le frazioni di Vref.
La tensione analogica di ingresso vin viene inviata in ingresso a (2N -1) comparatori che la confrontano con
ciascuno dei (2N -1) livelli di quantizzazione in cui è stata suddivisa la tensione di riferimento VREF tramite
la serie di 2N resistori tutti uguali.
Poi valuto contemporaneamente la tensione di ingresso con tutti questi livelli e a quel punto conosco la
risposta perché questi valori di quantizzazione li porto in ingresso a 2^N-1 comparatori che ricevono sul
terminale invertente i livelli di quantizzazione e al terminale non invertente invio la tensione vin.
Supponendo che vin sia una valore di tensione compreso tra due diversi valori di tensione che
comprendono un intervallo.

Quindi partendo dal basso avrò che nei comparatori al di sotto di quel valore la tensione sul + sarà
maggiore della tensione sul – e quindi avrò un valore logico alto.
Nel comparatore immediatamente superiore avrò la tensione sul + è più bassa della tensione sul – quindi
avrò una tensione più bassa.
Ottengo una codifica termometrica, tanti valori di tensioni alte partendo dal basso verso l’alto e il primo a
essere pari a 0 è quello che ha una tensione di ingresso maggiore della vin.
Leggendo l’ordine del comparatore più alto per avere un numero proporzionale alla tensione vin di
ingresso.
Ponendo in uscita alla codifica termometrica un decoder con priorità che da il numero del comparatore più
alto che ha l’uscita alta ottengo la mia codifica dei bit.
Un semplice decoder con priorità, che restituisce l’indirizzo binario della linea di ingresso a livello alto di
maggior priorità (con l’ordine più alto), convertirà i 2^(N-1) valori della codifica termometrica nella parola D
di N bit che costituisce la conversione digitale della tensione analogica di ingresso.
In un unico ciclo di clock ho un’indicazione della vin, la quale viene immediatamente confrontata con tutti i
livelli di quantizzazione della tensione di ingresso.
E’ il convertitore più veloce in assoluto poiché teoricamente è in grado di fare tutto in un ciclo di clock, e
non abbiamo un circuito di S/H proprio per questo motivo.
L’inconveniente è che in un circuito integrato si deve integrare 2^N resistenze ma anche 2^N-1
comparatori, dove per esempio se N = 8 devo avere 255 comparatori, che sono operazionali che occupano
una certa area, e quindi l’area occupata è non trascurabile.
Tipicamente 8 bit è il massimo dei convertitori flash e si preferisce la velocità al numero di bit.

I convertitori flash possono avere strutture più compatte se riununcio di far tutto in un solo ciclo di clock.
Se si rinuncia a voler effettuare la conversione completa in un unico ciclo di clock si può adottare una
configurazione di convertitore flash a due step che consente, a parità di risoluzione, di ottenere una
notevole riduzione dell’area del chip.

Il convertitore a N bit è suddiviso in due convertitori flash a N/2 bit in cui il primo (MSB – ADC) fornisce i bit
più significativi della conversione, mentre il secondo (LSB – ADC) fornisce i bit meno significativi.
1) la tensione di ingresso viene campionata e mantenuta dal circuito di Sample/Hold (S/H), necessario
perché rinunciamo a fare tutto in un solo ciclo di clock. Il convertitore flash MSB – ADC fornisce gli N/2 bit
più significativi che sono memorizzati nel latch; Quindi per 8 bit dà in uscita 4 bit e i 4 bit che mi da in uscita
li salvo perché saranno quelli che risulteranno i 4 bit più significativi della conversione.
2) il risultato viene riconvertito in una tensione analogica dal DAC e sottratto alla tensione di ingresso; Il
DAC la riconverte in una tensione e quindi in uscita al DAC avrò una tensione conversione della tensione di
ingresso su 4 bit, non esattamente uguale alla tensione di ingresso (con un errore di quantizzazione
certamente), vicina a vin ma non proprio uguale.
3) il risultato della sottrazione, denominato residuo, è moltiplicato per 2^N/2 dall’amplificatore e fornito in
ingresso al secondo convertitore flash (LSB – ADC). Il residuo sarà una tensione solitamente piccola legata
all’errore fatto andando a quantizzare su 4 bit la tensione di ingresso.
4) il secondo convertitore fornisce i bit meno significativi della conversione che vengono memorizzati nel
latch
Ho una conversione in due step, ma la prima conversione pesa molto perché determina i bit più
significativi.
Amplifico il residuo e vediamo perché.
Il residuo è una tensione molto piccola e devo convertirla su 4 bit.
Una possibilità è utilizzare un convertitore flash con una tensione di riferimento piccola perché devo
scalarla nei vari livelli di quantizzazione e confrontarla, pppure posso scegliere di utilizzare un amplificatore
che amplifica il residuo.
Nella prima conversione supponendo che la vin cada in quell’intervallo posso dire che i primi due bit
saranno magari 01 e dopodichè devo convertire l’errore che compio nella prima conversione, la differenza
indicata, quindi se ri-amplifico questa quantità per esattamente 2^(N/2) è come se prendessi questo
intervallo e andassi a riespanderlo su intervallo più grande su cui faccio la conversione fine.

La moltiplicazione per 2^N/2 consente di utilizzare due convertitori flash identici con la stessa tensione di
riferimento, non è necessario generare una Vref diversa.
Lavorando su tensioni più grandi i rumori presenti nel circuito sono più trascurabili.
La moltiplicazione può essere evitata se si progetta il convertitore LSB – ADC in modo che sia in grado di
convertire tensioni molto piccole.
Devo aspettare due cicli di clock come notiamo, ma in realtà il primo campione arriva, faccio la conversione
dei bit più significativi e poi procedo col residuo.
Ma siccome ho salvato i bit più significativi del primo campione nulla mi vieta che complicando il circuito
nel frattempo posso calcolarmi i 4 bit più significativi del secondo campione.
Il primo campione verrà convertito in un tempo pari a 2 clock ma dopo 1 clock mi arriva già la conversione
del seocndo campione, e così via, ottenendo un funzionamento a pipeline.
Mentre calcolo i bit meno significativi del primo campione calcolo i bit più significativi del campione
successivo.
Al limite si hanno convertitore di singoli bit in cascata, ho un throughput dopo i primi N cicli di clock che fa
sì che tutti i campioni mi escono con una frequenza pari a un unico ciclo di clock.
Il vantaggio di questa architettura risiede nella diminuzione dell’area del chip. Infatti, per una conversione a
N bit il numero di comparatori necessari scende dagli (2 N -1) necessari nella configurazione tradizionale a
2(2^(N/2)-1) per la configurazione a due step. Per esempio, per una risoluzione a 8 bit si passa da 255
comparatori per la flash tradizionale a 30 comparatori per la flash a due step. Lo svantaggio consiste nella
necessità di aspettare almeno due cicli di clock per avere il risultato definitivo della conversione.
Sono passato dal dover fare un convertitore flash a singolo ciclo di clock a farne uno che impiega due cicli di
clock anche se posso portare il throughput a un ciclo solo utilizzando solo 30 comparatori.

Convertitore A/D ad approssimazioni successive (SAR)


Il convertitore ad approssimazioni successive (SAR) effettua, in pratica, una ricerca binaria all’interno di tutti
i livelli di quantizzazione prima di convergere alla parola digitale finale.
Una possibile implementazione ha il seguente schema a blocchi.
Abbiamo lo Shift Register che riceve in ingresso il clock e controlla la temporizzazione della conversione, il
SAR la cui uscita va in un DAC e la cui uscita viene confrontata con vin campionata e mantenuta dal S/H,
perché se il SAR è a N bit impiega N cicli di clock visto che a ogni ciclo di clock viene definito uno dei bit
partendo da quelli più significativi.
La tensione analogica di ingresso vin viene campionata e mantenuta dal S/H e confrontata con l’uscita
fornita dal DAC. L’uscita del comparatore controlla la direzione della ricerca binaria e dopo N passi l’uscita
del SAR è la parola digitale D risultante dalla conversione.
L’algoritmo del SAR è costituito dai seguenti passi.
1) Si attiva lo shift register che fornisce in uscita bN-1=1 e tutti gli altri bit, da bN-2 a b0, a zero.
2) Il bit più significativo del SAR, dN-1, è impostato inizialmente a 1 mentre i rimanenti bit, dN-2 – d0, sono
posti a zero.
3) L’uscita del SAR, che sarà pari a 10000…0, viene convertita dal DAC nella tensione analogica VREF/2.
4) La tensione di ingresso vin viene confrontata con VREF/2. Se VREF/2 è maggiore di vin allora l’uscita del
comparatore è a livello alto e impone il reset del bit dN-1 a zero. Se VREF/2 è minore di vin allora l’uscita
del comparatore è a livello basso e impone il mantenimento del bit dN-1 a uno. Al termine del confronto
dN-1 assume il valore che avrà nella parola finale.
5) Si ricomincia con il giro quindi. Lo shift register sposta il valore 1 di una posizione verso destra: si avrà,
pertanto bN-2=1 mentre tutti gli altri bit saranno a zero.
6) Il bit dN-2 del SAR è impostato inizialmente a 1, il bit dN-1 è mantenuto al valore stabilito dal precedente
confronto e tutti gli altri bit sono posti uguali a zero.
7) L’uscita del DAC sarà uguale a VREF/4 se dN-1=0 oppure 3VREF/4 se dN-1=1.
8) La tensione di ingresso viene confrontata con l’uscita del DAC: se l’uscita del DAC è maggiore di vin allora
il bit dN-2 viene resettato a zero altrimenti viene mantenuto a uno. Il valore del bit dN-2 al termine del
confronto è quello che avrà nella parola finale.
9) Il processo si ripete fino a quando non sono fissati i valori di tutti i bit ottenendo la parola digitale finale.
Si noti, pertanto, che in un convertitore SAR a N bit il tempo di conversione è pari a N cicli di clock.
Viene fatta quindi la classica ricerca binaria in cui a ogni ciclo di clock determino un bit partendo dal più
significativo al meno significativo.

Potrebbero piacerti anche