Sei sulla pagina 1di 5

Definire quando una funzione è lineare. Definire il nucleo di una funzione.

Dimostrare che non esiste una funzione iniettiva da R^3 in R^2.


Una funzione è lineare quando sono rispettate le seguenti condizioni:
- F (A + B ) = F (A) + F (B)
- F (kA) = k F (A)

Sia F : V → W , il nucleo della funzione è definito come:


- K ern(F ) : {v ∈ V : F (v) = 0 ∈ K } .

Iniettiva ​→ ad elementi diversi del dominio associo elementi diversi del codominio.

Si noti che anche senza fare conti è chiara la non iniettività di F .


Infatti per una qualsiasi applicazione lineare g : Rn → Rm vale n = dim(ker(g)) + dim(im(g)) .
Quindi, affinché g sia iniettiva, è necessario (ma non sufficiente) che n ≤ m .

Una funzione da R3 a R2 non può essere iniettiva in quanto, se lo fosse, vorrebbe dire che
ogni base di R3 dovrebbe essere mappata in 3 vettori linearmente indipendenti di R2 , ma
R2 ha dimensione 2.

Enunciare il teorema che lega il rango di una matrice e l'esistenza delle soluzioni del
sistema Ax = b . Nel caso esista determinare b affinché il sistema non ammetta
soluzioni nel caso A = <1,3,2>,<-2,1,0>.
Teorema di Rouché-Capelli:
- se rk(A) < rk(A|b) , allora il sistema è impossibile, cioè non ammette soluzioni.
- se rk(A) = rk(A|b) , allora il sistema è compatibile, cioè ammette una o infinite
soluzioni)
Ricordando che n è il numero delle incognite, risulta che:
a) se rk(A) = rk(A|b) = n , allora abbiamo una e una sola soluzione:
∞n−rk(A) = ∞0 = 1.
b) se rk(A) = rk(A|b) < n , allora il sistema ammette ∞n−rk(A) soluzioni.

A = <1,3,2>,<-2,1,0> → M at(2, 3)
rk(A) ≤ 2 → prendo in considerazione le sottomatrici di ordine 2. Nel caso di A il det =/ 0 →
rk(A) è massimo.
Posso dire che non ∃ una b t.c. il sistema non ammetta soluzione. Il sistema ​NON
ammette soluzioni, solo nel caso in cui, la sottomatrice di A|b di ordine 2, abbia b t.c. il
det(SottoM at(A|b)) = 0 .
Dati tre punti A,B,C cosa significa che sono allineati. Inoltre, dire una condizione
necessaria e sufficiente affinchè tre punti sono allineati.
Dire che i 3 punti sono allineati, significa dire che i vettori AB = (B − A) e AC = (C − A) sono
paralleli. Costruendo la matrice M =< AB >, < AC > , i vettori sono paralleli, sse rk(M ) = 1 ,
quindi se le sottomatrici 2 × 2 , hanno tutte det = 0 .

Dato uno spazio vettoriale ​X​ dare una definizione di dimensione di ​X​ e fare un
esempio di uno spazio vettoriale di dimensione 1, di uno spazio di dimensione 5 e
uno spazio di dimensione infinita.
Se X è lo spazio vettoriale e β una sua base, la dimensione di X è definita come:
dim(X) = |β| ; dove |β| indica la cardinalità di beta , quindi il numero degli elementi di una sua
base qualsiasi.
- es. dimensione 1:​ Retta passante per l’origine → R or V = {(x, y) ∈ R2 | ax + by = 0}
- es. dimensione 5:​ Iperpiano di dim = 5 passante per l’origine →
R5 or V = {(x, y, z, t, h, k) ∈ R6 |ax + by + cz + dt + eh + f k = 0}
- es. dimensione ∞ : ​Iperpiano di dim = ∞ →
V = {p(x)|an xn + .. + a1 x + a0 , n ∈ N , a ∈ R} → V è lo spazio di tutti i polinomi
esistenti.

Dare un esempio di R2 → R3 tale che per cui il nucleo appartenga ((x,y) -x+2y=0)
f (x, y ) = (a1 x + b1 y, a2 x + b2 y, a3 x + b3 y) → omomorfismo R2 → R3
(x, y) ∈ k er(f ) sse f (a1 x + b1 y, a2 x + b2 y, a3 x + b3 y) = (0, 0, 0)

Ricavo y = 21 x dalla funzione iniziale.


Per trovare il generico Nucleo, risolvo il sistema lineare:
- a1 x + b1 y = 0 → a1 x + b1 ( 21 x) = 0
- a2 x + b2 y = 0 → a2 x + b2 ( 21 x) = 0
- a3 x + b3 y = 0 → a3 x + b3 ( 21 x) = 0
risolvendo rispetto a bi ottengo:
- b1 = − 2a1
- b2 = − 2a2
- b3 = − 2a3

Scelto arbitrariamente i valori per ai , posso ricavare quelli di bi :


- a1 = 0 → b1 = 0
- a2 = 1 → b2 = − 2
- a3 = − 1 → b3 = 2

Quindi f (x, y ) = (0, x − 2y, − x + 2y) → ? = (0, 0, 0)


Sistema:
- 0=0
- x − 2y = 0
- − x + 2y = 0

Dato x = s e risolvendo il sistema avremo che: x = s; y = 21 s


Quindi K er(f ) = {(s, 21 s) | s ∈ R}

Definizione di prodotto vettoriale e significato geometrico.


Diciamo ​prodotto vettoriale t​ ra due vettori v , w ∈ R3 , e lo indichiamo con v × w o con v ⋀ w ,
l’operazione: ×: R3 × R3 → R3 , quindi che (v, w) → v × w ; che alla coppia ordinata di vettori
(v, w) associa il vettore v × w così definito:
- il modulo di v × w è dato da: ||v × w|| = ||v|| * ||w|| * sin(θ) dove ||v|| e ||w|| indicano
rispettivamente la norma euclidea di v e w , mentre θ ∈ [0, π] è l’angolo convesso
formato dagli stessi.
- la direzione di v × w è la direzione ortogonale al piano che contiene v e w .
- il verso di v × w si ricava con la regola della mano destra!

Il modulo del prodotto vettoriale tra due vettori non nulli v , w ∈ R3 identifica l’area del
parallelogramma avente come lati consecutivi i rappresentanti AB di v e CD di w , applicati
nel medesimo punto A ≡ C .

Definire la norma del prodotto vettoriale e la condizione necessaria e sufficiente


finchè sia 0.
La ​norma di un vettore u = (u1 , u2 , ..., un ) ∈ Rn è un’applicazione cha a un vettore associa
un numero reale:
- || · || : Rn → R
- u → ||u|| =
√u1
2 + u2 2 + ... + un 2 .

||v × w|| = ||v|| * ||w|| * sin(θ) , dove θ è l’angolo convesso, compreso tra i due vettori.
La condizione necessaria e sufficiente per il quale ||v × w|| = 0 :
- ||v|| = 0 → v = 0 , oppure
- ||w|| = 0 → w = 0 , oppure
- sin(θ) = 0 → θ =/ k * π

Definire il rango di una matrice n × m , indicare una condizione necessaria e


sufficiente affinché n vettori siano linearmente dipendenti.
Posso esprime il rank di una matrice A , n × m in diversi modi:
- Il numero di righe (o colonne) linearmente indipendenti di A .
- L’ordine massimo dei minori non nulli di A .
- Il numero dei pivot di una riduzione a scala della matrice A attraverso il metodo di
eliminazione gaussiana.

Prendendo n scalari a1 , a2 , ..., an ∈ K e imponendo a1 v 1 + a2 v 2 + ... + an v n = 0


​ inearmente Dipendenti se oltre alla n-upla di scalari tutti nulli, esiste almeno
I vettori sono L
un’altra n-upla di scalari (non tutti nulli) che annulla la combinazione lineare.

n
Dare la definizione di k vettori linearmente indipendenti in uno spazio vettoriale R .
Dire quale relazione sussiste tra n e k affinché tali vettori siano linearmente
indipendenti.
​ inearmente Indipendenti s​ e, prendendo n scalari a1 , a2 , ..., an ∈ K e
I vettori sono L
imponendo a1 v 1 + a2 v 2 + ... + an v n = 0 , risulta che la precedente uguaglianza sia soddisfatta
sse a1 = a2 = ... = an = 0 .
Quindi se l'unica n-upla di scalari che annulla la combinazione lineare a1 v 1 + a2 v 2 + ... + an v n
è la n-upla di coefficienti nulli.

Nello spazio vettoriale di Rn , ho al massimo n vettori linearmente indipendenti, questo


significa che la relazione che lega i k vettori linearmente indipendenti allo spazio vettoriale
Rn è: k ≤ n .

Dati due spazi X e Y . Definire la funzione lineare F che da X va in Y . Definizione


di immagine e nucleo. Spiegare il rapporto tra la dimensione dell'immagine e la
dimensione del nucleo.
La funzione F è definita come segue: F : X → Y tale che deve rispettare le proprietà di
Additività ( F (v 1 + v 2 ) = F (v 1 ) + F (v 2 ) ) e ​Omogeneità ( F (λv) = λF (v) ).

Il nucleo​ di un'applicazione lineare è il sottospazio del dominio dell'applicazione la cui


immagine è il vettore nullo.

L'immagine​ di una applicazione lineare è il sottospazio del codominio formato dall'unione


delle immagini degli elementi del dominio.

Dato un omomorfismo F : X → Y , la somma delle dimensioni del nucleo e dell'immagine


coincide con la dimensione del dominio X : dim(X) = dim(Ker(F )) + dim(Im(F )) .

Dire quando due matrici si possono moltiplicare, e definire l'elemento generico della
matrice risultante e dimostrare che il prodotto non è commutativo.
Possiamo eseguire il prodotto tra A e B sse il numero delle colonne della matrice A sia
uguale al numero delle righe della matrice B .
Il prodotto tra le matrici A e B è una nuova matrice AB , detta matrice prodotto, avente
tante righe quante le righe di A e tante colonne quante sono le colonne di B .
Chiamiamo C = (cij ) ∈ M at(m, n, K) la matrice prodotto.
n
Abbiamo che cij = ∑ aik * bkj , ∀i ∈ {1, 2, ..., m}, ∀j ∈ {1, 2, ..., n}
k=1

Il prodotto tra due matrici, non gode della proprietà commutativa, questo possiamo
dimostrarlo con un contro esempio, se A ∈ M at(n, m, K) e B ∈ M at(m, n, K) , concludiamo
che AB ∈ M at(n, n, K) , mentre B A ∈ M at(m, m, K) .

Definizione di matrice diagonalizzabile


Se una matrice A ha n autovalori distinti λ1 , λ2 , .., λn e per ogni i risulta Av i = λi v i , si ha che
A(v 1 |v 2 |..|v n ) = (v 1 |v 2 |..|v n )diag(λ1 , λ2 , .., λn ) e quindi, scrivendo V = (v 1 |v 2 |..|v n )
→ V −1 AV = diag(λ1 , λ2 , .., λn ) → vale a dire che la matrice è diagonalizzabile.

Una matrice n × n è diagonalizzabile sse ogni suo autovalore ha molteplicità algebrica e


geometrica uguale, ​e se la somma fra le molteplicità di ogni autovalore è pari a n .

Dato un vettore trovare un altro che formi un certo angolo con il primo
Se v è il vettore di partenza e θ è l'angolo desiderato, allora w si ottiene facendo la somma
fra v e il vettore perpendicolare ad v la cui norma è ||v|| * tg(θ) .

Potrebbero piacerti anche