Riconoscimento
Fondamenti di Matematica
Cosimo Distante
cosimo.distante@imm.cnr.it
1) x, y X x y X
2) x y y x X (commutativa)
3) ( x y ) z x ( y z )
(associativa)
4) ( ) x ( x)
5) ( x y ) x y
(distributiva)
6) ( ) x x x
7) 0 X ' x X, x 0 x
8) 0,1 0 x 0 1 x 1
x1
x2
x
d
x t x1 , x2 , , xd
Matrici
Denotiamo con M una matrice nd (rettangolare) e la sua trasposta Mt di dimensioni dn
m11
m
21
M nd m31
mn1
m12
m1d
m22 m2 d
m32 m3d
mn 2 mnd
m11
m
12
M td n m13
m1d
m21 mn1
m22 mn 2
m23 mn 3
m2 d
mnd
( A B )T AT B T
( AB) B A
T
Matrici
Matrice Identit:
1 0 0
0 1 0
I
0 0 1
IA AI A
1 se i j
ij
0 altrimenti
Matrici
Rango:
Il rango di una matrice
colonne) di A.
An p
0 r ( A ) min( p, n )
r ( A) r ( AT )
r ( A) p se e solo se det( A) 0
r ( A B) r ( A ) r ( B)
r ( AB) min r ( A ), r ( B)
r ( AA T ) r ( A T A) r ( A)
X A 1b
In generale, il sistema di equazioni ammetter
almeno una soluzione se il rango di A uguale
al rango della matrice aumentata (A,b)
Autovalori - Autovettori
Sia A=[ajk] una matrice quadrata (nn).
Consideriamo
Ax x
con scalare
a11
a
21
a11 a12
A
a
a
21 22
a12
a22
x1 0
x 0
2
( a11 ) x1
a21 x1
a12 x2
( a22 ) x2
0
0
Autovalori - Autovettori
Si noti che
det( A I)
a11
det( A I)
a21
a12
a22
1
Soluzione di A
2
( a11 ) x1
a12 x2
a21 x1
( a22 ) x2
x
(1)
x(2)
0
0
Autovalori - Autovettori
Esempio:
4.0 4.0
A
1.6 1.2
Soluzione
1 2
4
4
det( A I)
2 2.8 1.6 0
1.6 1.2
2 0.8
( a11 ) x1
a12 x2
a21 x1
( a22 ) x2
Otteniamo per 1= -2
x1 2
x2 1
0
0
x
( 4.0 2.0) x1
4.0 x2
1.6 x1
(1.2 2.0) x2
(1)
2
1
per 2 0.8 x
(2)
0.8
0
0
m11
m21
m
31
m
n1
m12
m22
m32
mn 2
dove
d
yi mij x j
j 1
m1d
m2 d
m3d
mnd
x1
x2
y1
y2
x y
d n
x1 , x 2 , , x n
Spanning a Space
Sia X uno spazio vettoriale lineare, e sia u1 , u 2 , , u m un
sottoinsieme di X.
Possiamo dire che il sottoinsieme u1 , u 2 , , u m , spanna cio genera
lo spazio X se e solo se
(x, y ) x y x t y xi yi y t x
i 1
x xx
t
x y || x || || y || cos
t
xy
cos
|| x || || y ||
xy 0 x y
Dalla diseguaglianza di Cauchy-Schwartz ricordiamo che
x t y || x || || y ||
Ortogonalit
Due vettori x,y sono ortogonali tra loro se (x,y)=0
(x y)
Sottospazi lineari
n
Se x1 , x 2 , , x n sono n vettori linearmente indipendenti di
Allora ogni sottoinsieme di essi x1 , x 2 , , x k con kn genera un
sottospazio lineare di n
3
Esempi di sottospazi di
lorigine
Proiezione Ortogonale
Se sottospazio di n allora
n
x
x x ~
x
x ~
x
x
x
x
~
x
Proiezione ortogonale
x minimo
Gram-Schmidt
Supponiamo di avere n vettori indipendenti y1 , y 2 , , y n e da essi si
vogliono ottenere n vettori ortogonali v1 , v 2 , , v n
( v1 , y 2 )
( v1 , v 1 )
Gram-Schmidt contd
Pertanto continuando il processo si ottiente alla k-esima compoenente
k 1
(vi , y k )
vk yk
vi
i 1 ( v i , v i )
nnd5gs
C1) d ( x, y ) 0
C2) d ( x, y ) d ( y, x)
C3) d ( x, y ) d ( x, z ) d ( z , y )
Distanza Euclidea
x ( x1 , x2 , , xn ) y ( y1 , y2 , , yn )
d E ( x, y )
(x y )
i 1
Distanza di Hamming
Definita per vettori binari, indica il numero di posizioni (elementi)
in cui due vettori differiscono. Le regole C1, C2 e C3 sono valide
Correlazione
Usata per confrontare pattern di segnali, misurandone la loro
similarit.
y y1,y2 , ,yn
Siano x x1,x2 , ,xn
La loro correlazione non-normalizzata data da C
x y
i 1
Direzione di coseni
Se linformazione rilevante dei pattern o dei segnali da analizzare
contenuta solo nei moduli delle loro componenti, allora la similarit
pu essere misurata in termini di direzione di coseni
Siano
x, y
cos
(x y )
|| x || || y ||
1 best match
cos
0 x e y sono ortogonali
Si noti che se i vettori sono normalizzati ad 1, allora il coseno coincide
con la correlazione
1/
d M ( x, y )
x y
i 1
La distanza city-block
city-block ottenuta per =1
( x, y )
2
x y ( x, y )
( xi , x j ) ik jk ij
k
ij
dT ( xi , x j )
ii jj ij
Distanza di Mahalonobis
Le componenti di x e y possono essere generate da un processo
stocastico che definisce una dipendenza statistica tra esse.
Si definisce un prodotto interno come segue
( x, y ) ( x,y )
La distanza data da
d ( x, y ) x y ( x y ) t ( x y )