Sei sulla pagina 1di 4

DIMOSTRAZIONI MATRICI

1. Se A è invertibile e B è la sua inversa, B è unica.


Dalla definizione di matrice invertibile abbiamo:
AB=In=BA
Se esiste un’altra matrice C inversa di A si ha:
AC=In=CA
B= InB=(CA)B=C(AB)=C In=C→B=C
2. Se A è invertibile anche la sua inversa A-1 è invertibile ed è uguale ad A.
AA-1= In= A-1A→ A-1A= In= AA-1→
→ A-1 è invertibile ed A è la sua inversa.
3. Se A e B sono matrici quadrate dello stesso ordine ed entrambi invertibili allora la matrice AB è
invertibile e risulta che (AB)-1=B-1 A-1.
(AB)(AB)-1 = In =(AB)(B-1 A-1)=A(BB-1)A-1=A In A-1=AA-1= In
4. Se A è una matrice invertibile si ha che (AT)-1=(A-1)T.
AA-1= In= A-1A→ (AA-1)T= InT = (A-1A)T→ (A-1)TAT= In=AT(A-1)T→ AT(A-1)T= In=(A-1)TAT→(AT)-1=(A-1)T
5. Se A è invertibile si ha che det(A-1)=1/det(A).
AA-1= In→det(AA-1)=det(In)=1→det(A)*det(A-1)=1 → det(A-1)=1/det(A)
6. Se A è invertibile, la sua matrice inversa è data da A-1=agg(A)/det(A).
Chiamiamo gli elementi di 𝑎𝑔𝑔(𝐴): bjh
𝑛 𝑛
−1
𝑎𝑔𝑔(𝐴) 1 1
AA = 𝐴∗ = �� aij bjh � = �� aij Ahj �
𝑑𝑒𝑡(𝐴) det(A) det(A)
𝑗=1 𝑗=1
1≤i,h≤n 1≤i,h≤n
Fissati i e h, la sommatoria per j=1,…,n è non nulla solo se i=h, per il secondo teorema di Laplace. In
questo caso la sommatoria per j=1,…,n restituisce det(A) (primo teorema di Laplace), quindi
possiamo scrivere:
𝑛
1 1
�� aij Ahj � = (det(A) ∗ δih ) = I𝑛
det(A) det(A)
𝑗=1
1≤i,h≤n
δih è il delta di Kroenecker, una funzione che ha valore 1 se h=i, 0 altrimenti.
7. Se A è una matrice quadrata di ordine n e ortogonale la sua trasposta è ortogonale.
AAT= In= ATA→ (AT) TAT= In =AT (AT) T
Posto B=A T
BTB= In= BBT→B è ortogonale
8. Se A e B sono ortogonali, AB è ortogonale.
(AB)(AB)T = In =(AB)(BT AT)=A(BBT)AT=A In AT=AAT= In→AB è ortogonale
9. Se A è ortogonale, A-1 è ortogonale.
AAT= In=(A*AT)-1=In-1=In→(AT )-1A-1=In=(A-1)TA-1
Posto B= A-1
BT B=In→ A-1 è ortogonale.
10. Se A è una matrice ortogonale di ordine n allora det(A)=±1.
AAT= In= ATA→det (AAT)=det(In)=1→det(A)*det(AT)=1→det(A2)= 1→ det(A)=±1
DIMOSTRAZIONI STRUTTURE ALGEBRICHE

1. Sia (G,τ) un gruppo. L’elemento neutro e∈G è unico. Inoltre per ogni a∈G, il simmetrico a’∈G è
unico.
e’=e’τe’’=e’’
a’=a’τe=a’τ (aτa’’)=(a’τa)a’’=eτa’’=a’’

DIMOSTRAZIONI SPAZI VETTORIALI

1. Sia V uno spazio vettoriale sul campo K e sia v∈V allora v è lin. dip. se e solo se v=0� v .
Se v è lin. dip. per definizione esiste λ∈K* tale che λ*v=0. Ma se λ∈K* essendo (K*,*) un gruppo
abeliano esiste l’inverso λ-1∈K* tale che λ -1* λ=1 quindi λ*v=0 se e solo se λ-1*λ*v= λ-1*0� v cioè se e
solo se (λ-1*λ)*v=0� v cioè se e solo se 1k*v=0� v cioè se e solo se v=0� v .
2. Se v∈V e B=(v1,v2,….vn), la n-upla delle componenti d v rispetto a B è unica.
v=λ1v1+….+ λnvn
v=μ1v1+….+ μnvn
effettuando la sottrazione otteniamo:
v-v= (λ1- μ1)v+…..+ (λn- μn)v =0� v
essendo i vettori della base linearmente indipendenti, l’unica condizione che soddisfa tale
equazione è:
(λ1- μ1)= (λn- μn)=0
Quindi le n-uple di componenti di v rispetto a B coincidono.
3. Sia V un k-spazio vettoriale e siano v1…vk ∈V, allora tali vettori sono linearmente dipendenti se e
solo se almeno uno dei k vettori si scrive come combinazione lineare dei rimanenti k-1 vettori.
Essendo linearmente dipendenti, esisteranno k scalari non tutti nulli (λ1…λk)∈K tali che
𝑘

�(𝜆𝑖 𝑣𝑖 ) = 0
𝑖=1
Essendo non tutti nulli esisterà j∈(1,….,k) tale che λj≠0.
Moltiplicando ogni elemento della sommatoria per λj-1 avremmo che:
λ1 λj-1 v1 +… λj λj-1 vj +… λk λj-1 vk =0→ vj= -λ1 λj-1 v1 +…- λk λj-1 vk
quindi vj è combinazione lineare degli altri k-1 vettori.

DIMOSTRAZIONI SOTTOSPAZI VETTORIALI

1. Sia V un k-spazio vettoriale, siano U,W⊆V sottospazi vettoriali, allora U∩W è ancora sottospazio
vettoriale di V.
Essendo U e W sottospazi vettoriali valgono le proprietà di chiusura:
v1,v2∈U∩W → v1,v2∈U e v1,v2∈W
v1+v2∈U , v1+v2∈W → v1+v2∈U∩W
v∈U∩W → v∈U e v∈W , λ∈K → λv∈U e λv∈W → λv∈U∩W
U∩W è un sottospazio vettoriale.
2. Siano U e W due sottospazi vettoriali di uno stesso spazio vettoriale V, allora U+W è sottospazio di
V.
Essendo U e W sottospazi vettoriali valgono le proprietà di chiusura:

v∈U+W → esiste u∈U, w∈W t.c. v=u+w

v’∈U+W → esiste u’∈U, w’∈W t.c. v’=u’+w’

u+u’∈U, w+w’∈W → (u+u’)+(w+w’)=(u+w)+(u’+w’)=v+v’∈U+W.

λ∈K, v∈U+W → esiste u∈U, w∈W tale che v=u+w

λu∈U e λw∈W → λu+λw=λ(u+w)=λv∈U+W

DIMOSTRAZIONI APPLICAZIONI LINEARI

1. Se v1….vs sono vettori lin. dip. di U allora f(v1),…f(vs) sono vettori lin. dip. di V. Si dice in questo
caso che un’applicazione lineare conserva la lineare dipendenza.
Siano v1….vs vettori lin. dip.  λ1v1+….λSvS=0u con λ1….λS non tutti nulli. => considero la
combinazione lineare f(λ1v1+….λSvS)=(per def di applicazione lineare seconda
proprietà)=f(λ1v1)+….f(λSvS)=(def di appli lineare 1 proprietà)= λ1f(v1)+….λSf(vS)=f(0u)=(per la 1)
0v => f(v1),….f(vs) sono lin. dip. essendo λ1, λS non tutti nulli.
2. Sia f: U->V appl. lineare allora Im(f) è un sottospazio vettoriale di V. Inoltre se bu=[u1….un] è una
base di U allora Im(f)=L(f(u1)….f(un))
Tesi: Im(f) è sottospazio vettoriale di V. Presi v,v’ ∈ Im(f) => esistono u,u’ ∈ U t.c. v=f(u) e v’=f(u’) =>
v+v’=f(u)+f(u’)=(per definizione di applicazione lineare)= f(u+u’) quindi v+v’ ∈ Im(f)
- λ∈K, v ∈ im(f) => λ*v=λ*f(u)=f(λ*u) =>λ*v ∈ Im(f)
Tesi: Im(f)=L(f(u1)….f(un)). Dimostriamo che Im(f) sottoinsieme di L(f(u1)….f(un)). Sia v ∈ Im(f) =>
esiste u ∈ U t.c. v=f(u) essendo B=[u] esistono x1,x2…xn ∈ K t. c u=x1u1+….xnun quindi v=f(u)=terza
proprietà x1f(u1)…xnf(un) ∈ L(f(u1)….f(un))
Dimostriamo che L(f(u1)….f(un)) è sottoinsieme di Im(f). Sia V ∈ L(f(u1)…f(un))=> v=x1u1+….xnun ho
che v=f(u) con u ∈ U => v ∈ Im(f). Quindi per la doppia inclusione si ha l’uguaglianza.

3. Il nucleo di un app lin è un sottospazio di U e se A è la matrice associata ad f rispetto a certe basi


allora il sistema di equazioni cartesiane per il ker(f) è dato dal sistema lineare omogeneo che ha la
matrice A come matrice incompleta.
Dimostriamo che Ker(f) è un sottospazio vettoriale di U: siano u,u’ ∈ Ker(f) allora f(u)=0v f(u’)=0v
quindi f(u+u’)=f(u)+f(u’)=0v+0v=0v => u+u’ ∈ ker(f)
λ∈K u ∈ ker(f) si dimostra uguale
4. Siano U e V spazi vettoriali su K e sia f: U –>V app lin. Allora si ha che f è ingettiva se e solo se
ker(f)=[0u]
1) Ipotesi: f ingettiva Tesi: ker(f)=0v. Sia u ∈ ker(f) (per definizione) f(u)=0v =>(per la 1) f(0u)=0v
=> f(u)=f(0u) => u=0u 0> ker(f)=(0v) 2) Ipotesi ker(f)=(0u). Tesi f è ingettiva. Siano u e w ∈ U t. c.
f(v)=f(w) f(v)=f(w) => f(v)-f(w)=0v => f(v)+ f(-w)=0v => f(v-w)=0v => v-w ∈ ker(f) => v-w ∈ ker(f) =>
v-w=0v => v=w cioè f è ingettiva.
5. Siano U e V spazi vettoriali sul campo K e sia f: U–>V app lin allora f è ingettiva se e solo se f
conserva la lineare indipendenza.
f è ingettiva => f conserva la lineare indipendenza.
Siano v1….vs vettori lin indip. La tesi è che anche i vettori f(v1)…f(vs)=0v =>( per la def di funzione
lineare) f(a1v1+a2v2+asvs)=f(0u)=> f(0u)=Ov poiché f è ingettiva per ipotesi => a1v1+….asvs=0u =>
poiché v1…vs sono lin indip allora a1…as=0. f(v1)….f(vs) sono lin indip => f conserva la lineare
indipendenza.
<= f conserva la lineare indipendenza => f è ingettiva. Equivalentemente dimostro che f conserva la
lin ind ≠> ker(f)=[0v] se e solo se f è ingettiva. Allora u ∈ ker(f): supponiamo che u≠0u => u è lin indi
=>ipotesi f(u) è lin indip => f(u)≠0v =≤ u non appartiene a ker(f) assurdo! Quindi u=0u => ker(f)=[0v]
=> f è ingettiva.

DIMOSTRAZIONI GEOMETRIA

1. u1, u2 ∈ V3 sono lin. dip.  u1, u2 sono paralleli.


=> se u1, u2 sono lin dip allora si può scrivere ad esempio u2=λ*u1 quindi ha la stessa direzione di
u1 cioè u2//u1
<= Se u1//u2 scegliendo dei rappresentanti che partono dallo stesso punto u1=AP1 u2=AP2 allora
A,P1,P2 devono stare sulla stessa retta dunque esiste un λ ∈ R per cui AP1=λ*AP2 e quindi u2=λ*u1
cioè u1 e u2 sono lin dip.
2. u1 u2 u3 ∈ V3 sono lin dip  u1 u2 u3 sono complanari
=> Se u1 u2 u3 sono lin dip allora u1=λ2u2+λ3u3
1 caso: u2//u3 => u1 u2 u3 sono complanari
2 caso: u2 non parallelo a u3 => u1 u2 u3 sono complanari (ved oss sulla somma)
<= siano u1 u2 u3 complanari, se due di essi sono paralleli allora sono lin dip ed a maggior ragione i
3 vettori sono lin dip. Si supponga che i vettori siano a due a due non paralleli. Scegliamo dei
rappresentanti che partono dallo stesso punto.
AD=AD’+AD’’ ma AD’=λ1*AB AD’’= λ2*AC
AD= λ1u1+λ2u2 ovvero u1 u2 u3 sono lin dip.
3. Ogni riferimento R(O,B) per S3 nel quale B è base ortonormale per lo spazio V3 si dice riferimento
ortonormale. Stessa cosa per S2 V ∈ V3 v=(vx,vy,vz) v=vx*i+vy*j+vz*k risulta che vx=v*i vy=v*j e
vz=v*k
v*i=(vx*i+vy*j+vz*k)*i=vxi*i+vyj*i+vzk*i vx(i*i)=vx vy(j*i)=vz(k*i)=0 perché sono ortonormali.

Potrebbero piacerti anche