Sei sulla pagina 1di 32

Laurea magistrale in Ingegneria Gestionale e dell’Automazione

Corso di Identificazione e Fusione Sensoriale

EXTENDED INFORMATION FILTER

Giuseppe Milano, Marica Papale, Giovanni Stingi , Viviana Velardi Colesanti


Sommario

• Introduzione: richiami dell’EKF e dell’IF

• Derivazione dell’Extended Information Filter (EIF)

• Caratteristiche del filtro

• Confronti tra EKF, IF ed EIF

• Conclusioni
Introduzione

Extended Information Filter


Spazio di informazione non lineare
L’approccio generale è basato sull’applicazione dei principi dell’Extended Kalman
Filter e dell’Information Filter per costruire un nuovo metodo di stima per sistemi non
lineari. Ciò produce un filtro che svolge predizione e stima di informazioni riguardo
parametri di stato non lineari, date le osservazioni non lineari e un sistema dinamico
non lineare.
Si parla di spazio di informazione perché tutti i calcoli e il monitoraggio sono contenuti
in tale spazio informativo.
Stima di sistemi non lineari, in particolare sistemi a più
Obiettivo
sensori. Tale stima è ottenuta in modo migliore utilizzando
variabili ad informazione piuttosto che variabili di stato.
Introduzione

Utilità
Oltre a fornire soluzioni per problemi di stima non lineare, possiede gli stessi vantaggi
dell’Information Filter e risolve molti dei problemi associati all’Extended Kalman
Filter. In particolare lo spazio di informazione permette una facile inizializzazione delle
matrici e dei vettori del filtro (fondamentale data l’importanza dell’accuratezza
dell’inizializzazione per sistemi non lineari).

La predizione e la correzione in termini di informazione


riducono notevolmente il carico di difficoltà delle loro
equazioni!

Tali equazioni sono partizionate e decentralizzate.


Richiami EKF

Extended Kalman filter (EKF)


  PREDIZIONE

Ricordiamo l’equazione di predizione dello stato:

(k|k-1) = fx(k) ∗[(k−1|k-1)]+ w(k)

con (k−1|k-1) = x (k-1) - (k-1|k−1) l’errore di predizione all’instante k-1

e la covarianza:

P (k|k-1) = fx(k) * [(k−1|k-1)]* fxT(k) + Q(k)


Richiami EKF

Extended Kalman filter (EKF)


  CORREZIONE

La stima del vettore di stato all’istante k invece è data da:

(k|k) = (k|k-1) + W(k)*[z(k) – ℎ((k|k−1))]

dove la matrice di guadagno W(k) (scelta con l’obiettivo di minimizzare


l’errore quadratico medio) è data nella forma:

W(k) = P (k|k-1)* fxT(k)*S-1(k)


Richiami EKF
 Ricordando l’equazione generale dell’uscita z(k) = h(x(k)) + v(k)

e l’equazione per la predizione dell’uscita (k|k-1) = h((k|k−1)) ,

ricaviamo l’innovazione ν(k) = z(k) – ℎ((k|k−1)) = z(k) – (k|k-1)

e sapendo che la covarianza dell’incertezza vale R(k) = E[v(k)* vT(k)]

abbiamo quindi che la covarianza vale:

P (k|k) = [1 – W(k)* hx(k)]* P (k|k-1)*[1 – W(k)* hx(k)]T* W(k)*R(k)*WT(k)

Mentre la covarianza dell’innovazione è:

S(k) = fx(k)*P (k|k-1)* fxT(k) + R(k)


Richiami IF

Information filter (IF)

PREDIZIONE

ŷ(k|k-1) = L(k|k-1) ŷ(k-1|k-1) vettore di stato d’informazione

Y (k|k-1) = [Ak Y-1(k|k-1) Ak-1 +Qk ] -1 matrice d’informazione

CORREZIONE

ŷ(k|k) = ŷ(k|k-1) + ik vettore di stato d’informazione

Y (k|k) = Y (k|k-1) + Ik matrice d’informazione


Derivazione EIF

1) x(k) = f(x(k-1), u(k-1), (k-1)) + w(k)

2) z(k) = h(x(k),k) + v(k)

Partendo ora dalle equazioni provenienti dalla derivazione dell’EKF


1 – W(k)*hx(k)

post-moltiplichiamo per {P (k|k-1)* P-1 (k|k-1)}

1 – W(k)*hx(k) = [P (k|k-1) – W(k)*hx(k)*P (k|k-1)]  P-1 (k|k-1)

e moltiplicando poi W(k) per {S(k)*S-1(k)}

1 – W(k)*hx(k) = [P (k|k-1) – W(k){S(k)*S-1(k)}*hx(k)*P (k|k-1)]  P-1 (k|k-1)


Derivazione EIF

Infine, sostituendo in quest’ultima le equazioni di P(k|k) e W(k) ricavate


dall’EKF, che ricordiamo sono:

P(k|k)= P(k|k-1) – W(k)*S(k)*WT(k)

W(k)= P(k|k-1)* hTx(k)* S-1(k)

3) 1 – W(k)* hx(k) = P (k|k)* P-1 (k|k-1)


Derivazione EIF

A questo punto sostituendo l’espressione della matrice della covarianza


dell’innovazione di EKF data da:

S(k) = hx(k)*P (k|k-1)* hxT(k) + R(k)

nella matrice del guadagno di EKF, che ricordiamo è:

W(k) = P (k|k-1)* hxT(k)*S-1(k)

W(k) = P(k|k-1)* hTx(k)*[hx(k)*P(k|k-1)* hTx(k) + R (k)]-1


Derivazione EIF

Continuando otteniamo:

W(k) = P(k|k-1)* hTx(k)*[hx(k)*P(k|k-1)* hTx(k) + R (k)]-1

W(k)*[hx(k)*P(k|k-1)* hTx(k) + R (k)] = P(k|k-1)* hTx(k)

W(k)*R (k) = [1 – W(k)*hx(k)]*P(k|k-1)* hTx(k)


Derivazione EIF

e ricordando l’equazione:

3) 1-W(k)* hx(k) = P (k|k)* P-1 (k|k-1)

W(k) = P (k|k)* hTx(k)* R-1(k)

A questo punto per derivare l’EIF, il vettore di stima dell’EKF deve


essere espresso in una forma simile alla forma del filtro di Kalman
lineare.
Derivazione EIF
 Aggiungiamo e sottraiamo il termine W(k) * hx(k) * (k|k-1)

a destra della stima del vettore di stato all’istante k dell’EKF

(k|k) = (k|k-1) + W(k)*[z(k) – ℎ((k|k−1))]

e con le dovute sostituzioni

(k|k) = [1 – W(k) * hx(k)] * (k|k-1) + W(k) * z’(k)

z’(k)= ν(k)*hx(k)* (k|k-1):vettore di osservazioni equivalente linearizzato

A questo punto abbiamo ottenuto un’equazione in una forma simile a


quella utilizzata per il KF.
Derivazione EIF
 Sostituendo all’interno di quest’ultima la W(k) e l’equazione:
3) 1-W(k)* hx(k) = P (k|k)* P-1 (k|k-1)

(k|k) = [P(k|k) * P-1(k|k-1)] * (k|k-1) + [P(k|k) *  * R-1(k)] * z’(k)

Pre-moltiplicando entrambi i membri per P-1(k|k) e semplificando:

P-1(k|k) * (k|k) = P-1(k|k-1) * (k|k-1) + * R-1(k) * z’(k)]

(k|k) = (k|k-1) + i(k)


Derivazione EIF

  EQUAZIONE ESTESA DI STIMA DELL’INFORMAZIONE

(k|k) = (k|k-1) + i(k)

i(k) = * R-1(k) * z’(k)]: contributo d’informazione

avendo ricordato dall’IF:

(k|k) = P-1(k|k) * (k|k)


Derivazione EIF

A questo punto per aggiornare la matrice d’informazione sostituiamo


nuovamente W(k) e l’equazione:

3) 1 – W(k)* hx(k) = P (k|k)* P-1 (k|k-1)


nell’equazione della matrice della covarianza aggiornata dell’EKF:

P (k|k) = [1 – W(k)* hx(k)]* P (k|k-1)*[1 – W(k)* hx(k)]T* W(k)*R(k)*WT(k)

P(k|k) = P(k|k) * P-1(k|k-1) * P(k|k)+ P(k|k) * hTx(k) * [P(k|k) * hTx(k) * R-1(k)]T


Derivazione EIF

Pre e post moltiplichiamo entrambi i membri dell’equazione per P-1 (k|k)

P-1 (k|k) = P-1(k|k-1) + hTx(k) * [P(k|k) * hTx(k) * R-1(k)]T * P-1 (k|k) cioè:

Y(k|k) = Y(k|k-1) + I(k)

EQUAZIONE AGGIORNATA DELLA MATRICE DI


INFORMAZIONE LINEARIZZATA

I(k) = hTx(k) * R-1(k)* hx(k): contributo della matrice associata


Derivazione EIF

 
Pre-moltiplichiamo lo stato di predizione dell’EKF dell’equazione per
P-1 (k|k-1) : (k|k-1) = f((k-1|k-1) , uk-1 ,(k-1))

P-1 (k|k-1)*(k|k-1) =P-1 (k|k-1)*f((k-1|k-1) , uk-1 ,(k-1))

(k|k-1) = Y(k|k-1) *f((k-1|k-1) , uk-1 ,(k-1))

VETTORE DI PREDIZIONE DELL’INFORMAZIONE


Derivazione EIF

La predizione della matrice di informazione linearizzata è ottenuta


invertendo la matrice di covarianza:

P (k|k-1) = fx(k) *P (k-1|k-1)*fxT(k)+ Q(k-1)

Y (k|k-1) =[fx(k) *Y-1 (k-1|k-1)*fxT(k)+ Q(k)]-1

MATRICE DI PREDIZIONE DELL’INFORMAZIONE


Questo completa la derivazione dell’EIF.
Riepilogo

  PREDIZIONE

ŷ(k|k-1) = Y (k|k-1) f(k, (k-1|k-1), u(k-1), (k-1))

Y (k|k-1) = [ fx(k) Y-1(k-1|k-1) * fxT(k) + Q (k) ] -1


CORREZIONE

ŷ(k|k) = ŷ(k|k-1)+ i(k)

Y (k|k) = Y (k|k-1) + I(k)


Riepilogo

MATRICE D’INFORMAZIONE ASSOCIATA

I(k) = hTx(k) * R-1(k)* hx(k)

  CONTRIBUTO DELLO STATO D’INFORMAZIONE

i(k) = hTx(k) * R-1(k)*[v(k)+hx(k) *(k|k-1)]

v(k) = z(k) – h((k|k-1)): innovazione


EIF

IN CONCLUSIONE

• Estende il filtro informazione in modo da poterlo applicare in sistemi


non lineari
• L’approccio generale è quello di unire le conoscenze dell’ IF con
l’ EKF, per costruire l’ EIF
• EIF mantiene tutti i vantaggio dell’ IF ed è in grado di risolvere
alcune problematiche legate all’ EKF
EIF

IF

EIF

EKF
IF

PRO CONTRO
• Dal punto di vista dei costi il filtro è equivalente a • Non abbiamo un guadagno e non c’è una
quello di Kalman, ad ogni istante troviamo la stima matrice di covarianza dell’innovazione.
del vettore di informazione.
• Come si può notare abbiamo una semplicità dei
calcoli specialmente per quanto riguarda la
correzione in quanto la matrice R è molto probabile
che sia diagonale e quindi semplice da invertire.
• La predizione dipende dal coefficiente di
propagazione e non dipende dalle osservazioni.
• La stima delle informazioni è più semplice dal punto
di vista computazionale della stima dello stato.
• Il partizionamento di queste equazioni può essere
sfruttato per una stima multisensore decentrata.
• Non abbiamo un guadagno e non c’è una matrice di
covarianza dell’innovazione.
• La massima dimensione di una matrice da invertire è
data dalla dimensione dallo stato.
• L'inizializzazione del filtro a informazione è molto
più facile del filtro di Kalman
EKF

PRO CONTRO
• Semplicità ed efficienza computazionale • L'approssimazione attraverso l'uso di
• Se la funzione è approssimabile linearmente al Taylor al primo ordine risulta
valor medio e la covarianza è piccola il filtro insufficiente
funziona bene • La bontà dell'approssimazione
dipende dal grado di incertezza e dal
grado di non linearità della funzione;
laddove la funzione non è
approssimabile, EKF può portare a
divergenza della stima.
• Il calcolo della jacobiano può essere
una operazione onerosa e difficile
EIF

PRO
• Risolve nello spazio di informazione il problema di stima lineare per
sistemi che hanno sia dinamiche che osservazioni non lineari.
• La stima dell’EIF è più semplice di quella dell’EKF. Quindi la partizione
di queste equazioni per sistemi centralizzati è semplice.
• Le equazioni di predizione dell’informazione dell’EIF sembrano le stesse
dell’EKF per quanto riguarda la complessità, in realtà sono più semplici
a causa dell’ortonormalità dei parametri dello spazio di informazione.
• Poiché EIF è espresso in termini di Matrici e Vettori di Informazione è
inizializzato in modo semplice se paragonato all’EKF.
EIF
 
CONTRO
• Non è un filtro particolarmente efficiente in termini computazionali, in quanto ad
ogni passo è necessario effettuare un’inversione della Matrice di Informazione (Y).
• Ad ogni passo va mantenuto lo stato .
• A livello computazionale EIF approssima in maniera peggiore perché approssima
maggiormente la non linearità della funzione (instabilità della linearizzazione).
• Natura non banale della derivazione e computazione della matrice jacobiana.
• Altre stesse problematiche relative all’EKF.
EKF vs EIF

Come era per i filtri lineari, lo stato e le osservazioni sono identiche per entrambi.
Dal disegno si può vedere che le curve sono una sopra l’altra.
Stesse analogie si riscontrano per gli errori di stima e innovazione.
Tuttavia esistono piccole differenze tra i due filtri dovute ad errori numerici.
All’aumentare della non linearità aumentano gli errori. Per fortuna anche nel caso
peggiore non sono gravi e non sono sequenziali.

Errori peggiori rispetto ai sistemi lineari Matrici jacobiane


non costanti

I modelli di covarianza e di sistema devono essere calcolati online.


EKF vs EIF
EKF vs EIF

La complessità della non linearità e degli jacobiani porta a maggiori


costi computazionali e ciò produce ulteriori errori di arrotondamento e di
calcolo. Nonostante ciò, in termini di performance, entrambi posseggono
le seguenti caratteristiche:

• Non distorsione
• Consistenza
• Good maching
IF, EKF, EIF

CONCLUSIONI

Si può quindi dire che l’EIF nasce con l’obiettivo di estendere

l’IF, risultando più pratico e generale, così da poter passare da

sistemi lineari a sistemi non lineari.

Riesce inoltre a risolvere alcune problematiche relative all’EKF.

Potrebbero piacerti anche