Sei sulla pagina 1di 15

Interferenza intersimbolo:

Introduciamo il collegamento digitale:

Si prende l’informazione rappresentata da Bk, questa attraversa un blocco di codifica del canale che ci
da Un, si attraversa un blocco di mapping e si ottengono i simboli Ai che possono essere complessi, se
non sono complessi non importa, sono reali e si mandano al un blocco di impulso di forma quindi si
moltiplica per un g(t), quello che esce è x(t) che è un segnale PAM che ha simboli modulanti Ai e impulso
modulato g(t), a questo punto facciamo la modulazione armonica di x(t) per ottenere tilde s(t), abbiamo
il canale di propagazione arriviamo a tilde y(t) a cui si somma un rumore che è tilde w(t), facciamo la
demodulazione armonica, otteniamo y(t), un filtraggio Hr(t) che mi restituisce r(t), campiono co la
frequenza di campionamento del tempo di simbolo e ottengo degli Rk, poi

con il criterio di decisione a massima verosimiglianza, ho degli cappellino a(i) e li de-mappo in cappellino
U(n), poi faccio la decodifica del canale e ottengo i Bk.

Anche visto come:


dove x(t) opera come inviluppo complesso del segnale che sto trasmettendo, quindi ho una modulazione
a prodotto e quindi si può rappresentare lo schema come schema equivalente passabasso che ha come
unica differenza che non c’è la modulazione e demodulazione armonica perché faccio il canale di
propagazione passabasso, abbiamo sr(t) a cui somma l’equivalente del rumore in banda base, y(t) è già
in banda base e dopo tutto continua come prima.

Considerando di avere un blocco di ricezione il segnale ricevuto può essere scritto come:

dove n(t) è l’equivalente passabasso del rumore termico e dove


z è la risposta dell’equivalente passabasso del canale di propagazione a g(t).

Dopo il campionatore a velocità 1/T il segnale tempo-discreto può essere scritto:


dove

Si può riscrivere dove t0 rappresenta il ritardo di propagazione e assumendo


idealmente di conoscere la symbol rate abbiamo:

Possiamo distinguere tre quantità:

1) che rappresenta il valore k-esimo cercato (termine per n=k


2) L’interferenza creata dal simbolo che precede e segue a(k) che si chiama interferenza
intersimbolo

si divide in precursori: interferenza generata dai simboli precedenti a(k)

e postcursori: interferenza generata dai simboli seguenti a(k)

3) Il contributo rumoroso dove e indichiamo la banda equivalente come

Annullamento interferenza intersimbolo (Nyquist No-ISI)


La condizione richiesta per non avere interferenza intersimbolo è:

considerando un nuovo segnale come ritardo di z(t) la trasformata di Fourier

diventa e le condizioni di no-isi diventano .

Considerando la successione naturale discreta risulta


E sapendo che otteniamo che:

questa equazione ci dice che l’annullamento dell’interferenza


intersimbolo richiede che la ripetizione periodica della trasformata di Fourier del segnale sia costante
per tutti i periodi.

Risulta perciò che:

a) Per tutte le funzioni con larghezza di banda minore di la frequenza massima


non ha soluzione.

b) Per tutte le funzioni che hanno larghezza di banda c’è solo una possibile soluzione

c) Per le funzioni che hanno larghezza di banda ci sono infinite soluzioni, tra quelli ci è la
funzione a coseno rialzato che corrisponde a questa funzione del tempo:

Union Bound:
L’union bound rappresenta un limite superiore alla probabilità d’errore, sapendo che la probabilità
d’errore è:

la probabilità condizionata d’errore dell’ipotesi Hi è:

Per trovare il limite superiore alla probabilità d’errore consideriamo nuove regioni di decisione:

corrispondenti ai punti più vicini a Sj che a Si, quindi vale la


seguente uguaglianza:
Che può essere sostituita alla seconda equazione scritta.

Bisogna tenere conto che le regioni possono sovrapporsi quindi la probabilità d’errore
può essere alzata come segue:

dove è la probabilità di errore


a coppie.

Da ciò tenendo conto che .

possiamo scrivere che:

Probabilità d’errore di una M-ASK:


La probabilità d’errore si può ottenere dalla valutazione della probabilità d’errore data dall’ipotesi S(j). In
questo caso abbiamo osservato che i due simboli esterni hanno probabilità:

Dove i M-2 simboli interni hanno probabilità:

La probabilità per simboli interni è doppia


perché vanno considerate ambo le possibilità
che il segnale cada nei simboli adiacenti.

Combinando nella formula otteniamo che:


e da notare che in

queste equazioni vale la relazione e dove Es e Eb sono


le energie per simbolo e per bit.

Probabilità d’errore di una M^2-QAM:


La modulazione può essere vista come due modulazioni ortogonali M-ASK, la probabilità
d’errore può essere calcolata considerando ambo le probabilità che nessuna delle due M-ASK
sia in errore.

e
La probabilità d’errore di un M-QAM si costruisce come sottoinsieme della modulazione
quadrata successiva.

Probabilità d’errore di una M-FSK:


Calcoliamo la probabilità d’errore di una M-FSK in AWGN attraverso la formula:

Abbiamo bisogno di trovare , il quale prendendo in target la specifica configurazione


della costellazione e adottando il criterio ML può essere riscritto come: Ri è il vettore ricevuto e
deve essere minore di Rj, dato che abbiamo trasmesso il simbolo si.

Poiché sia ri che rj sono variabili random possiamo trovare la probabilità condizionale come:

Chiaramente la probabilità dell’integrale è una probabilità congiunta di M-1 eventi,


considerando che si parla di forme d’onda ortogonali cioè l’indipendenza è garantita la
probabilità congiunta può essere fattorizzata:
dato di aver ricevuto ri e tramesso si
Sotto le ipotesi Hi, le variabili random rj sono distribuite in Gaussiana con media zero e varianza N0/2
quindi:

e sostituendo nella equazione precedente abbiamo:

Usando l’espressione dell’integrale abbiamo:

Ricordando che:

per vale N variabile gaussiana

possiamo concludere che la probabilità d’errore è data da:

Probabilità d’errore di una M-PSK:


In questo caso la probabilità non può essere calcolata in forma chiusa quindi per valutarla si otulizza una
disuguaglianza riguardante i bordi.
Teoria della decisione:
La teoria della decisione è uno studio matematico-statistico del modo di scegliere tra varie alternative, ci
è utile nel caso in cui abbiamo il problema di rilevare quale messaggio è stato trasmesso dalla sorgente
quando il messaggio attraversa una transizione probabilistica che proietta il messaggio trasmesso in una
variabile random r.

Un esempio è quello che si può avere nella trasmissione di un segnale PAM in un sistema rumoroso
(AWGN) riassunto dal seguente schema:

L’obbiettivo della teoria della decisione è quello di minimizzare il costo poiché il costo di una decisione
corretta è 0 mentre il costo di una decisione errata è 1.

Introduciamo i concetti di distribuzione di probabilità continua ovvero una distribuzione di probabilità


che possiede una funzione di densità (o semplicemente che attribuisce la stessa probabilità a tutti i punti
appartenenti a un dato intervallo) e il concetto di distribuzione di probabilità a priori che data una
quantita incognita p è una distribuzione di probabilità che esprime l’incertezza di p prima che i dati
vengano presi in considerazione e si scrive .

Detto ciò il rischio di Bayes per ipotesi binaria date due ipotesi H0 e H1 e le probabilità a priori
e funzioni a massima verosimiglianza si hanno quattro possibilità: Correct
Rejection, False Allarm, Missed Detection e Correct Detection.

Nel caso di un ipotesi multipla il rischio di Bayes è minimizzato se vale la seguente relazione:

Detto ciò possiamo parliamo di criterio MAP e ML in ipotesi Binaria:

MAP: i costi di decisione corretta e errata sono uguali e in particolare corretta 0 e


errata 1. Risulta che:
e il rischio di Bayes ritorna

ML: le ipotesi risultano equiprobabili quindi si ha che:

mentre il rischio di Bayes ritorna

Per più ipotesi abbiamo che il rischio di Bayes diventa:

Di conseguenza possiamo formulare i due criteri in forma logaritmica (più utilizzata):

a massima correlazione

Il criterio ML può essere espresso anche a minima distanza euclidea:

ma questo richiede che si operi nella seguente regione:

Spettro PAM:
Si consideri un segnale PAM espresso da:
Dove g(t) rappresenta una funzione deterministica ad energia finita e la successione {an} appartenga a
un processo reale tempo-discreto ergodico. L’insieme dei segnali rappresenta un processo aleatorio
cicloergodico

Il segnale può essere scomposto in una componente deterministica periodica

E una componente ciclo-ergodica a valor medio nullo:

Lo spettro di potenza del segnale S(t) è la somma di una componente a righe GµS (f ), associata alla parte
deterministica periodica, e di una componente continua GΓ(f ), associata alla parte ciclo-ergodica.

Il calcolo dello spettro può essere effettuato nei seguenti passi:

1. Calcolo dello spettro a righe del segnale periodico µs(t)

2. Calcolo dello spettro continuo applicando la proprietà di ciclo-ergodicità a Γ(t)

1.

La componente periodica può essere rappresentata attraverso il suo sviluppo in serie di Fourier come:

dove i coefficienti cn sono:

, il valor medio può essere espresso


come

quindi lo spettro di potenza può essere espresso come:

2.
Lo spettro di potenza dalla componente ciclo-ergodica si calcola nei seguenti passaggi:

Calcolo della funzione di autocorrelazione statistica

Calcolo della funzione di autocorrelazione temporale

Calcolo dello spettro di potenza come trasformata di Fourier di Rγ (τ)

Lo spettro di potenza è dato dalla sovrapposizione di A e B. (si noti che la funzione di autocorrelazione
statistica può coincidere con quella temporale.

Channel Capacity:
Il teorema di Hartley-Shannon afferma che un canale con SNR=PS/N (potenza del segnale diviso
potenza di rumore) e larghezza di banda B (Hz) ha una capacità in termini di bit/s data dalla
seguente formula:

Si ha una trasmissione senza errori se la bit rate di origine Rb è inferiore alla capacità del canale,
ovvero:

Nel caso in cui abbia Rb=C allora:

Dividendo entrambi i termini per la banda B:


Cambiamo la base del logaritmo e eseguiamo i passaggi:

Trasformando in Db:

Temperatura equivalente di quadripoli in cascata:


La temperatura equivalente di rumore di un quadripolo è espressa come:

Dove dNa è la potenza di rumore (W) dovuta al quadripolo stesso, K è la costante di Boltzmann, Gd(f) è il
guadagno disponibile del quadripolo lineare.

Rappresenta l’innalzamento della temperatura del resistore che sarebbe necessario per avere all’uscita
del quadripolo non rumoroso la stessa potenza di rumore disponibile che si avrebbe con il quadripolo
rumoroso e il resistore a temperatura fisica T0.

Considerata la concatenazione in serie di m quadripoli Q1,Q2,QM caratterizzati come (Qi,Tr,Gd) la


temperatura equivalente di rumore Tr dell’insieme dei quadripoli è:
Il primo blocco è il più importante in termini di contributo rumoroso e si chiama (Low Noise Power
Amplifier).

Il guadagno disponibile all’uscita del terzo quadripolo è: Gd=Gd1+Gd2*Tr1+ Gd3*(Tr1*Tr2)

Metodo alternativo per proiettare un segnale nella base (Filtro Adattato):


Un filtro adattato è ottenuto correlando un segnale conosciuto con un segnale incognito per rilevare la
presenza di un marcatore all’interno del segnale incognito. (equivalente ad effettuare l’operazione di
convoluzione).

È un filtro lineare ottimo per la massimizzazione del rapporto segnale/rumore SNR in presenza di rumore
additivo che porta a una conseguente minimizzazione della probabilità d’errore.

Consideriamo un filtro che trasferisce la funzione la risposta del segnale r(t) al tempo
t=T è:

Nell’ultimo passaggio si considera solo la


parte dell’integrale positiva perché la
risposta impulsiva è di tipo causale, ovvero
uguale a 0 per t<0.

Consideriamo la ricezione di un segnale s(t) più il rumore Gaussiano Bianco v(t) attraverso il filtro h(t). Il
rapporto segnale rumore all’uscita del filtro al tempo t=T è:
1)Al numeratore ho l’uscita del
filtro in T ovvero l’energia che
esce, al denominatore ho il valore
quadratico medio del rumore.

2)I limiti sono posti all’infinito perché


tanto domina tutto la funzione di
risposta impulsiva. h(T-tau) è la
funzione di risposta impulsiva,
moltiplicata per la densità spettrale di potenza.

In altri termini se scegliamo o equivalentemente allora il


rapporto segnale rumore è massimizzato all’uscita e uguale a Es/n0.

Se consideriamo la trasformata di Fourier del filtro abbiamo:

La cifra di rumore:
È un altro modo per esprimere la temperatura equivalente ed è il rapporto tra la potenza di rumore
disponibile all’uscita del quadripolo e la potenza di rumore dovuta solo al resistore (quadripolo non
rumoroso).

dNu è la potenza di rumore disponibile in banda [f,f+df] all’uscita del quadripolo, mentre dNu’ è quella
dovuta al solo resistore. La cifra di rumore viene espressa in dB.

Se si ha una cascata di quadripoli è data dalla seguente formula:

Basi Ortonormali:
Consideriamo di avere N funzioni ortonormali (ovvero a due a due ortogonali e di lunghezza unitaria)

definite in un intervallo T.
L’insieme di rappresenta una base ortonormale di uno spazio n-dimensionale, una base
dell’insieme di segnali è definita come:

I coefficienti sono i coefficienti lineari della combinazione e rappresentano


il segnale y(t) nello spazio .

Il vettore è la rappresentazione del vettore y(t) in .

È facilmente dimostrabile che e quindi

È di notevole importanza la procedura Gram Schmitd che rappresenta un metodo per avere una base
ortonormale completa per l’insieme di segnali in un intervallo T. Si articola in 4 punti:

1. Si impone che

2. Si calcola l’errore di rappresentazione di sulla base

3. Se la base non è completa e si aggiunge

Poi si incrementano gli indici delle basi e

4. Si impone se si torna allo step 2 se no ci si ferma.

PS:La procedura di Gram Schmitd prende il primo segnale e allinea la prima base funzione ad
esso, quindi procede controllando se la base per il segnale successivo. Se la base non è
completa, l'errore di rappresentazione è ortogonale allo spazio descritto dalla base e quindi può
essere selezionato come a nuova funzione di base ecc..

Potrebbero piacerti anche