+: V ×V → V
(v, w) 7 → v+w
K×V → V
(λ, v) 7 → λv
1. ∀v ∈ V , 1 · v = v
2. ∀λ, µ ∈ K, ∀v ∈ V , λ(µv) = (λµ)v
3. ∀λ ∈ K, ∀v, w ∈ V , λ(v + w) = λv + λw
4. ∀λ, µ ∈ K, ∀v ∈ V , (λ + µ)v = λv + µw.
Gli elementi di V sono anche detti vettori, mentre i valori λ ∈ K sono detti scalari.
Esempi di spazi vettoriali su R sono Rn , lo spazio dei polinomi di grado minore o uguale a n
a coefficienti in R. Anche l’insieme delle funzioni continue su un aperto assegnato costituisce uno
spazio vettoriale su R.
Spazi vettoriali su C sono Cn e l’insieme dei polinomi di grado minore o uguale a n, a coefficienti
in C.
Definizione. Dato uno spazio vettoriale V , si dice che W ⊆ V è un sottospazio vettoriale di V se
risulta anch’esso uno spazio vettoriale dotato della somma e del prodotto per scalare di V .
Un metodo per riconoscere se W è un sottospazio vettoriale è di verificare che, ∀v, w ∈ W ,
∀λ, µ ∈ K, λv + µw ∈ W .
Definizione. Dati v1 , . . . , vn ∈ V , si dice combinazione lineare dei vettori dati ogni vettore del tipo
λ1 v1 + . . . + λn vn
con λi ∈ K.
Si dice che n vettori sono linearmente dipendenti se esiste una loro combinazione lineare a
coefficienti non tutti nulli uguale al vettore nullo, cioè se ∃λi ∈ K, con qualche λi 6= 0 tale che
λ1 v1 + . . . + λn vn = O.
Si dice che n vettori sono linearmente indipendenti se non sono linearmente dipendenti, cioè se
λ1 v1 + . . . + λn vn = O. implica che λi = 0, ∀i = 1, . . . , n.
Definizione. Sia V uno spazio vettoriale.PSe esistono n vettori linearmente indipendenti e1 , . . . , en ∈
n
V tali che, ∀v ∈ V , ∃λ1 , . . . , λn ∈ K v = i=1 λi ei , si dice che e1 , . . . , en è una base di V e che V ha
dimensione n.
Può accadere che V abbia dimensione infinita. Se ha dimensione finita, tale dimensione è univo-
camente determinata.
1
Per esempio l’insieme delle funzioni continue su un intervallo è uno spazio vettoriale di dimensione
infinita.
Rimandiamo al corso di Geometria per maggiori dettagli sulle basi di uno spazio vettoriale di
dimensione finita.
< , >: V × V → K
(v, w) 7 → < v, w >
Teorema. Sia V uno spazio vettoriale dotato di prodotto scalare e W un suo sottospazio di dimen-
sione finita. Sia inoltre v ∈ V \ W . Allora esistono e sono unicamente determinati due vettori w, u
tali che
v = w + v, w ∈ W, u ∈ W ⊥ .
2
Il vettore w è detto proiezione ortogonale di v su W ed è il vettore di W che ha minima distanza da
v.
Se conosciamo una base ortonormale {ei , i = 1, . . . , n} di W , la proiezione ortogonale di v su W
si può scrivere cosı̀:
Xn
w= < v, ei > ei .
i=1
Inoltre,
n
X
kv − wk2 = kvk2 − < v, ei >2
i=1
Il lettore può verificare per esercizio che questa operazione soddisfa tutte le proprietà del prodotto
scalare elencate in precedenza.
Al prodotto scalare è associata una norma, che viene detta norma quadratica:
! 12
Z b 1
kf k2 = f 2 (x) dx = (< f, f >) 2 .
a
Noi siamo interessati a costruire un sistema ortonormale di funzioni in L2 ([a, b]), che ci aiuti a
meglio rappresentare le funzioni periodiche. Poiché vedremo che non è restrittivo trattare solo le
funzioni periodiche di periodo 2π, considereremo lo spazio delle funzioni a quadrato integrabile su
[0, 2π]. In particolare appartengono a questo spazio le funzioni sin kx, cos kx, per k ∈ N (osserviamo
che per k = 0, sin kx ≡ 0 e cos kx ≡ 1.
Proposizione.
R 2π
< 1, 1 > = 1 dx = 2π
R02π 2
< sin kx, sin kx > = sin kx dx = π ∀k ∈ N \ {0}
R02π 2
< cos kx, cos kx > = cos kx dx = π ∀k ∈ N \ {0}
R02π
< sin kx, sin hx > = sin kx sin hx dx = 0, ∀h 6= k
R02π
< cos kx, cos hx > = cos kx cos hx dx = 0, ∀h 6= k
R02π
< sin kx, cos hx > = 0
sin kx cos hd dx = 0 ∀h, k ∈ N \ {0}
Questa proposizione (la cui verifica è lasciata al lettore) ci dice che le funzioni sono a due a due
ortogonali, ma non sono normali. Per ottenere funzioni di norma 1, basta normalizzare le funzioni
stesse, dividendo ciascuna di queste per la sua norma. Allora:
1 1 1
√ , √ cos kx, √ sin kx
2π π π