Sei sulla pagina 1di 16

UNIVERSIT� DEGLI STUDI DI MODENA E REGGIO EMILIA

DIPARTIMENTO DI SCIENZE FISICHE, INFORMATICHE E MATEMATICHE

Registro delle lezioni ed esercitazioni


dell'insegnamento di ALGEBRA LINEARE
per i Corsi di Laurea in Informatica
e in Matematica

Anno accademico 2018/2019


-----------------------------------------------------------------------------------
-----------------------------------------------------------------------------------
----
Lu 24/09/2018
Presentazione del corso. Svolgimento e materiale di supporto. Contenuti. Modalit�
di accreditamento. Campi numerici: il campo razionale, il campo reale, il campo
binario. Definizione di matrice m x n a coefficienti in un campo numerico. Gli
elementi del campo numerico vengono chiamati numeri o scalari. Notazione, righe e
colonne. Matrici quadrate d'ordine n. Moltiplicazione di uno scalare per una
matrice. La matrice identica I_n d'ordine n pu� essere definita come quella
matrice quadrata d'ordine n avente come coefficienti i simboli di Kronecker.
Addizione di matrici. La matrice nulla m x n funge da elemento neutro per
l'addizione di matrici. Moltiplicando lo scalare 0 per una qualunque matrice m x
n si ottiene sempre la matrice nulla m x n. Moltiplicando lo scalare 1 per una
qualunque matrice m x n si ottiene la matrice stessa.

Me 26/09/2018
Propriet� associativa dell'addizione di matrici, propriet� commutativa
dell'addizione di matrici. La matrice opposta di una matrice. Se H � una matrice
e a, b sono scalari allora vale una sorta di propriet� associativa: (ab)H=a(bH).
Propriet� distributiva della moltiplicazione di uno scalare per una matrice
rispetto all'addizione di scalari. Propriet� distributiva della moltiplicazione di
uno scalare per una matrice rispetto all'addizione di matrici. Convenzioni sulla
precedenza delle operazioni nel calcolo matriciale. Esercizio: calcolo di
espressioni che coinvolgono scalari e matrici. Combinazione lineare di una sequenza
finita di matrici delle stesse dimensioni con coefficienti assegnati. Esempi di
calcolo di combinazioni lineari di matrici. Si definisce E_ij come la matrice 2
x 2 avente 1 nella posizione di riga i, colonna j e tutti zeri nelle
rimanenti posizioni. Calcolo della combinazione lineare a E_11 + b E_12 + c E_21
+d E_22. La combinazione lineare di matrici in cui tutti i coefficienti sono uguali
a zero prende il nome di combinazione lineare banale. La combinazione lineare
banale di matrici d� sempre come risultato la matrice nulla. Matrice trasposta di
una matrice. La diagonale principale e la diagonale secondaria di una matrice
quadrata. La diagonale principale di una matrice quadrata. La matrice identica pu�
essere definita come quella matrice quadrata aventi tutti i coefficienti uguali a
1 sulla diagonale principale e tutti gli altri coefficienti uguali a zero.
Matrici quadrate di tipo particolare: matrici simmetriche, matrici diagonali.

Ve 28/09/2018
Le righe e le colonne di una matrice. Il prodotto di una riga 1 x n per una
colonna n x 1 � un numero dato dalla somma dei prodotti degli elementi di ugual
posto nella riga e nella colonna. Moltiplicazione di due matrici (righe per
colonne). Il prodotto di due matrici si pu� eseguire quando il numero di colonne
della prima matrice � uguale al numero di righe della seconda. Esempio di due
matrici che si possono moltiplicare in un verso ma non nell'altro. Il prodotto di
matrici, anche quando si pu� eseguire in entrambi i versi, non e` detto che sia
commutativo: esempi di matrici 2 x 2 che non commutano. La matrice nulla annulla
i prodotti. Esempi di matrici quadrate non nulle 2 x 2 il cui prodotto in un
verso � la matrice nulla mentre nell'altro verso � una matrice non nulla. Si pu�
pertanto concludere che per quanto riguarda la moltiplicazione di matrici non vale
la cosiddetta "legge di annullamento del prodotto" che vale invece per la
moltiplicazione di numeri. I vettori canonici pensati come righe (risp. colonne)
aventi un unico coefficiente uguale a 1 e tutti gli altri coefficienti uguali a
zero. La matrice identica pu� essere definita come quella matrice avente come righe
(risp. colonne) i vettori canonici. Se A � una matrice m x n allora il
prodotto di I_m per A � uguale ad A e il prodotto di A per I_n e` uguale
ad A. Propriet� distributive della moltiplicazione di matrici rispetto
all'addizione. Moltiplicazione di una scalare per un prodotto di matrici.
Espressioni che coinvolgono numeri e matrici. Potenza k-esima di una matrice
quadrata d'ordine n. Espressioni polinomiali calcolate per una matrice quadrata.

Lu 01/10/2018
Propriet� associativa della moltiplicazione di matrici. Esempio in cui una
combinazione lineare non banale di matrici d� come risultato la matrice nulla. Le
matrici di una lista si dicono linearmente dipendenti se ammettono una combinazione
lineare non banale il cui risultato sia la matrice nulla. Si dicono invece
linearmente indipendenti se l'unica loro combinazione lineare che d� come risultato
la matrice nulla � quella banale. Definita E_ij come la matrice 2 x 2 avente 1
nella posizione di riga i, colonna j e tutti zeri nelle rimanenti posizioni,
abbiamo che E_11, E_12, E_21, E_22 sono linearmente indipendenti.
Generalizzazione al caso di matrici m x n: definita E_ij come la matrice m x n
avente 1 nella posizione di riga i, colonna j e tutti zeri nelle rimanenti
posizioni, abbiamo che le matrici cos� definite sono linearmente indipendenti (e
sono in numero di mn). Equazioni in una o pi� incognite. Il concetto di soluzione
di una equazione in n incognite. Un'equazione si dice compatibile se ammette
almeno una soluzione, incompatibile se non ammette soluzioni. Esempio di una
equazione trigonometrica in due incognite incompatibile: cos(x+y)=2. Equazioni
algebriche in n incognite. Trasportando eventualmente dei termini da un membro
all'altro, una equazione algebrica pu� sempre essere espressa nella forma
P(X_1,X_2,..., X_n)=0 dove P(X_1,X_2,...,X_n) � un polinomio nelle incognite
X_1, X_2, ..., X_n.

Me 03/10/2018
Equazioni lineari in n incognite. Coefficienti delle incognite, termine noto.
Scrittura standard di una equazione lineare in n incognite. Un'equazione lineare
in n incognite � completamente descritta dalla matrice riga dei suoi
coefficienti. Risoluzione di una equazione lineare in n incognite. Variabile
vincolata e variabili libere, rappresentazione parametrica dell'insieme delle
soluzioni di una equazione lineare. Un'equazione lineare � incompatibile se e solo
se i coefficienti delle incognite sono tutti uguali a zero e il termine noto �
diverso da zero. Nel caso di coefficienti delle incognite tutti uguali a zero e
termine noto uguale a zero si ha una identit�, cio� ogni sequenza di n valori del
campo d� luogo a una soluzione. Se almeno uno dei coefficienti delle incognite �
diverso da zero allora le soluzioni dell'equazione si esprimono in funzione di n-1
parametri liberi. Sistemi di equazioni. Esempio: il sistema dato dall'equazione di
secondo grado X^2+Y^2=1 e dall'equazione di primo grado X+2Y=0. Nel piano
cartesiano le sue soluzioni rappresentano i punti d'intersezione della
circonferenza con la retta. Sistemi di m equazioni lineari in n incognite. Una
soluzione del sistema di equazioni lineari � una soluzione comune a tutte le
equazioni lineari del sistema. Sistemi compatibili, sistemi incompatibili. Se una
singola equazione del sistema � incompatibile allora anche tutto il sistema �
incompatibile. Matrici del sistema: matrice incompleta, matrice completa,
coefficienti delle incognite, termini noti. Un sistema di equazioni lineari �
completamente descritto dalla sua matrice completa. Una singola equazione lineare
si dice omogenea se il suo termine noto � zero, un sistema di equazioni lineari si
dice omogeneo se tutte le sue equazioni sono omogenee. Un sistema omogeneo di
equazioni lineari � sempre compatibile perch� ammette sempre la soluzione nulla (o
banale) ottenuta assegnando il valore zero a ciascuna delle incognite.
Lu 08/10/2018
Equazioni equivalenti. Sommando a entrambi i membri di una equazione una stessa
quantit� si ottine una equazione equivalente a quella iniziale, e quindi
trasportando un addendo da un membro all'altro di una equazione cambiandolo di
segno si ottiene una equazione equivalente. Moltiplicando entrambi i membri di una
equazione per uno stesso numero diverso da zero si ottiene una equazione
equivalente. Utilizzando la rappresentazione parametrica dell'insieme delle
soluzioni, si usa dire che una equazione lineare in n incognite nella quale i
coefficienti delle incognite non sono tutti nulli ammette oo^(n-1) soluzioni. Due
sistemi di equazioni lineari nelle stesse incognite si dicono equivalenti se sono
entrambi incompatibili oppure se sono entrambi compatibili ed hanno le stesse
soluzioni.
Operazioni elementari sulle righe di una matrice: scambio di due righe;
moltiplicazione di una riga per un numero diverso da zero; addizione ad una riga di
un multiplo di un'altra riga. Due sistemi di equazioni lineari nelle stesse
incognite le cui matrici complete siano ottenute l'una dall'altra mediante una
qualunque operazione elementare sulle righe sono equivalenti. Pivot di una riga non
nulla. Una matrice si dice a gradini se le sue eventuali righe nulle seguono tutte
le righe non nulle e se i pivot delle righe non nulle si dispongono strettamente da
sinistra verso destra procedendo dall'alto verso il basso. Ogni matrice pu� essere
trasformata in una matrice a gradini mediante una opprtuna sequenza di operazioni
elementari sulle righe. Matrici a gradini ridotte. Una matrice a gradini si pu�
sempre trasformare in una matrice a gradini ridotta mediante una opportuna sequenza
di operazioni elementari sulle righe. Pertanto una matrice arbitraria si pu� sempre
trasformare in una matrice a gradini ridotta mediante una opportuna sequenza di
operazioni elementari sulle righe. Esempio numerico con una matrice 4 x 5.

Me 10/10/2018
Risolvere un sistema di equazioni lineari significa stabilire se il sistema e`
compatibile o incompatibile e, nel primo caso, trovarne tutte le soluzioni.
Dimostrazione del fatto che ogni matrice pu� essere trasformata in una matrice a
gradini ridotta mediante una opportuna sequenza di operazioni elementari sulle
righe. Un sistema di equazioni lineari � sempre equivalente a un sistema la cui
matrice completa e` a gradini ridotta. Discussione di un sistema di equazioni
lineari in n incognite in cui la matrice completa � a gradini ridotta. Se il
pivot dell'ultima riga non nulla � nella posizione n+1, quella dei termini noti,
allora il sistema risulta incompatibile. Se invece il pivot dell'ultima riga si
trova in una delle prime n posizioni allora il sistema risulta compatibile. In
tal caso, infatti, se le righe non nulle sono r, allora il sistema risulta
equivalente a quello avente come matrice completa quella formata dalle sole r
righe non nulle. Ciascuna equazione di un siffatto sistema in n incognite pu�
essere riscritta isolando al primo membro l'incognita che si trova nella posizione
pivotale, trasportando al secondo membro tutto il resto. Si individuano cos� r
incognite, le cosiddette variabili pivotali, che, partendo dall'ultima e
sostituendo a ritroso, vengono espresse in funzione delle rimanenti n-r
incognite, le cosiddette variabili libere. Assegnando a ciascuna variabile libera
un arbitrario valore nel campo degli scalari, si ottiene cos� una soluzione del
sistema e viceversa, dando luogo a una rappresentazione parametrica dell'insieme
delle soluzioni che dipende da n-r parametri. Ciascuna variabile pivotale viene
espressa come polinomio di primo grado nelle n-r variabili libere. Si dice, in
breve, che il sistema ammette oo^(n-r) soluzioni. Le r variabili pivotali
vengono dunque espresse direttamente come polinomi di primo grado nelle n-r
variabili libere. Il metodo di eliminazione di Gauss-Jordan per la risoluzione di
un sistema di equazioni lineari consiste nella trasformazione della matrice
completa del sistema, mediante operazioni elementari sulle righe, in una matrice a
gradini ridotta: il sistema avente quest'ultima come matrice completa � equivalente
al sistema originario e si pu� risolvere nel modo precedentemente indicato. Esempi
numerici di risoluzione di un sistema di equazioni lineari col metodo di Gauss-
Jordan.
Ve 12/10/2018
Il sistema omogeneo associato a un sistema di equazioni lineari. La soluzione
generale di un sistema compatibile di equazioni lineari si pu� esprimere come somma
di una sua soluzione particolare con la soluzione generale del sistema omogeneo
associato. I sistemi parametrici di equazioni lineari sono quelli nei quali i
coefficienti sono funzioni di uno o pi� parametri. Risolvere un sistema parametrico
dipendente da un solo parametro significa, per ogni valore del parametro stesso,
stabilire se il sistema risulta compatibile e, in caso affermativo, trovarne tutte
le soluzioni. Esercizio di risoluzione completa di un sistema parametrico di
equazioni lineari con il metodo di Gauss-Jordan. Tipicamente la risoluzione
richiede che a un certo punto si decida se una certa espressione dipendente dal
parametro � diversa da zero, in modo da poter considerare quella espressione come
il pivot della propria riga. Ci� richiede tipicamente la discussione del
comportamento del sistema per alcuni valori "singolari" del parametro separatamente
dagli altri. Nel corso della risoluzione, conviene selezionare come pivot gli
eventuali coefficienti che compaiono come costanti non nulle, in particolare i
coefficienti uguali a 1, per i quali le operazioni successive di annullamento degli
elementi al disopra e al disotto del pivot risultano particolarmente semplici. Il
rango per righe di una matrice e` definito come il massimo numero di righe
linearmente indipendenti che posso estrarre dalla matrice. Il rango per colonne di
una matrice e` definito come il massimo numero di colonne linearmente indipendenti
che posso estrarre dalla matrice. Per una data matrice il rango per righe e` sempre
uguale al rango per colonne (dimostrazione omessa per il momento) e si pu� dunque
parlare semplicemente di rango della matrice. Il rango di una matrice m x n non
supera il minimo tra m e n. Esempio di calcolo del rango per righe e per colonne
di una matrice 2 x 4 utilizzando la definizione. Questo metodo in generale � poco
efficiente. Se L(1), L(2), ... , L(h) sono matrici mxn tra le quali vi � la
matrice nulla allora esse sono linearmente dipendenti: basta prendere la
combinazione lineare con coefficiente uguale a 1 nella posizione dove c'e` la
matrice nulla, 0 in tutte le altre posizioni.

Lu 15/10/2018
Ulteriori esercizi di risoluzione di sistemi parametrici di equazioni lineari con
il metodo di Gauss-Jordan. Una volta ottenuta una rappresentazione parametrica
dell'insieme delle soluzioni nei casi in cui il sistema stesso risulti compatibile,
basta assegnare il valore 0 a tutte le variabili libere per ottenere una
soluzione particolare del sistema e rappresentare quindi la soluzione generale del
sistema come somma della soluzione particolare con la soluzione generale del
sistema omogeneo associato. Il rango per righe di una matrice non cambia se questa
si sottopone a una qualunque delle operazioni elementari sulle righe (dimostrazione
omessa per il momento). Le righe non nulle di una matrice a gradini sono
linearmente indipendenti. Il rango di una matrice a gradini � uguale al numero
delle sue righe non nulle, cio� al numero dei suoi pivot. Il metodo di Gauss-Jordan
per il calcolo del rango: si trasforma la matrice assegnata in una matrice a
gradini mediante opportune operazioni elementari sulle righe e si calcola il rango
di quest'ultima contando il numero dei suoi pivot.

Me 17/10/2018
Applicando il metodo di Gauss-Jordan per la riduzione a gradini della matrice
completa di un sistema di equazioni lineari, si vede che il sistema risulta
incompatibile esattamente quando la matrice completa a gradini ha un pivot in pi�
della matrice incompleta a gradini e quindi il rango della matrice completa
originaria supera di 1 il rango della matrice incompleta originaria. Il sistema
risulta invece compatibile esattamente quando la matrice incompleta e la matrice
completa nella forma a gradini hanno gli stessi pivot e quindi i ranghi delle due
matrici originarie sono uguali. Resta cos� anche dimostrato il teorema di Rouch�-
Capelli: un sistema di equazioni lineari � compatibile se e solo se la sua matrice
incompleta e la sua matrice completa hanno lo stesso rango. I vettori canonici di
K^n sono linearmente indipendenti. Pertanto la matrice identica I_n d'ordine n,
le cui righe (colonne) sono i vettori canonici, ha rango n. Definizione di matrice
quadrata invertibile, unicit� della matrice inversa. Un sistema di n equazioni
lineari in n incognite si dice di Cramer se la sua matrice incompleta risulta
invertibile. Un sistema di Cramer AX=b ammette un'unica soluzione, data da X =
A^(-1) b. Metodo di Gauss-Jordan per stabilire se una data matrice quadrata �
invertibile e, in caso affermativo, calcolare la matrice inversa. Una matrice
quadrata invertibile ha necessariamente rango uguale al suo ordine. Esercizi
numerici.

Ve 19/10/2018
Definizione di spazio vettoriale sul campo K. Addizione vettoriale e
moltiplicazione di un numero per un vettore. Propriet� delle operazioni.
Moltiplicando lo zero del campo per un qualunque vettore si ottiene il vettore
nullo; moltiplicando un qualunque numero del campo per il vettore nullo si ottiene
il vettore nullo; moltiplicando il numero -a per un qualunque vettore v si
ottiene il vettore -(av), in particolare moltiplicando il numero -1 per un
qualunque vettore v si ottiene il vettore opposto -v. Convenzioni sulla
notazione e sulla precedenza delle operazioni. Esempio. L'insieme delle matrici m
x n sul campo K con le sue operazioni di addizione di matrici e moltiplicazione
di un numero per una matrice � uno spazio vettoriale sul campo K. Ulteriori
esercizi di calcolo della matrice inversa di una matrice quadrata invertibile con
il metodo di Gauss-Jordan. Ulteriori esercizi di risoluzione di sistemi di Cramer
con il metodo dell'inversa. Ulteriori esercizi di risoluzione di sistemi
parametrici di equazioni lineari con il metodo di Gauss-Jordan.

Lu 22/10/2018
Esempio di spazio vettoriale: lo spazio vettoriale standard K^n delle n-uple
ordinate di elementi del campo K. Esso pu� essere pensato sia come spazio
vettoriale delle matrici riga o come spazio vettoriale delle matrici colonna a
coefficienti in K. Combinazione lineare di h vettori assegnati con coefficienti
assegnati. La combinazione lineare banale di vettori qualsiasi d� come risultato il
vettore nullo. Pu� capitare che una combinazione lineare non banale di certi
vettori dia come risultato il vettore nullo. Definizione di vettori linearmente
dipendenti e indipendenti. Se una lista di vettori contiene il vettore nullo allora
i vettori sono linearmente dipendenti. Il prodotto di un numero per un vettore d�
luogo al vettore nullo se e solo se lo scalare � zero oppure il vettore � il
vettore nullo. Un singolo vettore � linearmente indipendente se e solo se � un
vettore non nullo. Se a una lista di vettori linearmente dipendenti aggiungo altri
vettori comunque scelti ottengo ancora una lista di vettori linearmente dipendenti.
Se da una lista di vettori linearmente indipendenti sopprimo uno o pi� vettori,
ottengo ancora una lista di vettori linearmente indipendenti. I vettori di una
lista sono linearmente dipendenti se e solo se uno di essi si pu� esprimere come
combinazione lineare dei rimanenti. Sottospazi vettoriali di uno spazio vettoriale
assegnato. Un sottospazio vettoriale contiene sempre il vettore nullo. Esempi di
sottospazi vettoriali: il sottospazio vettoriale costituito dal solo vettore nullo
e l'intero spazio vettoriale. Le matrici triangolari superiori (aventi tutti i
coefficienti uguali a zero sotto la diagonale principale) formano un sottospazio
vettoriale dello spazio vettoriale della matrici quadrate d'ordine n. Un
sottoinsieme non vuoto di uno spazio vettoriale risulta essere un sottospazio
vettoriale se e solo se � chiuso rispetto alle combinazioni lineari dei propri
vettori. La matrice identica d'ordine n e` invertibile ed e` l'inversa di se
stessa. Il prodotto di matrici invertibili � invertibile e l'inversa della matrice
prodotto e` uguale al prodotto delle matrici inverse in ordine inverso. Il gruppo
generale lineare GL_n(K) di tutte le matrici quadrate invertibili d'ordine n a
coefficienti nel campo K. La somma di due matrici invertibili in generale non e`
una matrice invertibile.

Me 24/10/2018
L'insieme delle soluzioni di un sistema omogeneo di equazioni lineari in n
incognite a coefficienti nel campo K � un sottospazio vettoriale di K^n.
L'intersezione di due sottospazi vettoriali � un sottospazio vettoriale.
L'intersezione di una famiglia arbitraria, anche infinita, di sottospazi vettoriali
e` un sottospazio vettoriale. L'unione di sottospazi vettoriali non � detto che sia
un sottospazio vettoriale, per esempio definendo i sottoinsiemi U={(x,y): x=0},
W={(x,y): y=0} di R^2, si ha che U e W sono sottospazi vettoriali di R^2, ma
la loro unione non e` un sottospazio vettoriale di R^2, in quanto contiene i
vettori (0,1) e (1,0) ma non contiene la loro somma (0,1)+(1,0)=(1,1). L'unione
di U con W costituisce anche un esempio di sottoinsieme che non e` un
sottospazio vettoriale pur contenendo il vettore nullo. Dato un sottoinsieme non
vuoto S di uno spazio vettoriale V, l'intersezione di tutti i sottospazi
vettoriali di V contenenti S e` un sottospazio vettoriale che contiene S e
risulta essere il piu` piccolo (rispetto all'inclusione insiemistica) sottospazio
vettoriale contenente S, detto il sottospazio vettoriale generato da S, denotato
con <S> oppure con L(S). Casi particolari. Caso in cui S={v_1,v_2,...,v_h} �
costituito da una lista finita di vettori. In tal caso il sottospazio vettoriale
generato da S coincide con l'insieme dei vettori che si possono esprimere come
opportuna combinazione lineare dei vettori v_1, v_2,..., v_h. Caso particolare in
cui h=1: in tal caso L(S) consiste di tutti e soli i vettori che sono
proporzionali a v_1. Se il sottospazio vettoriale <S> generato da S coincide
con tutto lo spazio vettoriale V, allora si dice che S forma un sistema di
generatori per V. Si dice che uno spazio vettoriale � finitamente generato se
ammette un sistema di generatori costituito da un numero finito di vettori. Esempio
di uno spazio vettoriale che non e` finitamente generato: lo spazio vettoriale
delle successioni di numeri reali. Definizione di base finita di uno spazio
vettoriale. Esempio: i vettori canonici di K^n (1 in un'unica posizione, 0 in
tutte le altre) formano una base di K^n, detta base canonica. I vettori
"anticanonici" di R^n (0 in un'unica posizione, 1 in tutte le altre) formano una
base di R^n detta base "anticanonica".

Ve 26/10/2018
Se v_1, v_2, ..., v_h sono vettori linearmente indipendenti e se un dato vettore
si pu� rappresentare come combinazione lineare di v_1, v_2, ..., v_h, tale
rappresentazione risulta unica. Se uno spazio vetttoriale ammette una base finita
allora ciascun vettore si pu� esprimere in modo unico come combinazione lineare dei
vettori della base: i coefficienti di questa combinazione lineare prendono il nome
di "componenti" del vettore rispetto alla base fissata. Le componenti di un vettore
(x_1, x_2, ..., x_n) di K^n rispetto alla base canonica sono proprio i numeri
x_, x_2, ..., x_n. Esercizio di determinazione delle componenti di un vettore di
R^3 rispetto alla base anticanonica, note le sue componenti rispetto alla base
canonica. Operazioni elementari sui vettori di una lista v_1, v_2, ..., v_h. Se
v_1, v_2, ..., v_h costituiscono un sistema di generatori per uno spazio
vettoriale V, allora applicando alla lista v_1, v_2, ..., v_h una qualunque
operazione elementare si ottiene ancora un sistema di generatori per lo spazio
vettoriale V. Se S={v_1,v_2,...,v_h} e` un sistema di generatori per lo spazio
vettoriale V (che non si riduca al solo vettore nullo) allora esiste una base B
di V ottenuta da S eliminando opportunamente alcuni vettori di S. Il metodo
prevede che si analizzino in sequenza i vettori di S e si proceda
all'eliminazione di quei vettori della lista che si possono esprimere come
combinazione lineare dei vettori precedenti. Esercizio: verifica che i vettori
v_1=(1,1,1), v_2=(0,1,3), v_3=(1,2,4), v_4=(1,0,0) formano un sistema di
generatori per R^3; estrazione di una base dal sistema di generatori
{v_1,v_2,v_3,v_4} e determinazione delle componenti di un generico vettore di R^3
rispetto a questa base.

Lu 29/10/2018
Il teorema del completamento ad una base: se V � uno spazio vettoriale n-
dimensionale e v_1, v_2, ..., v_h sono vettori linearmente indipendenti con h<n
allora esistono n-h vettori v_h+1, ..., v_n tali che {v_1, v_2, ..., v_h,
v_h+1, ..., v_n} sia una base di V. In particolare v_h+1, ..., v_n possono
essere scelti opportunamente da una base assegnata {e_1, e_2,..., e_n} di V. Sia
V uno spazio vettoriale che non si riduce al solo vettore nullo e che ammette un
sistema di generatori costituito da n vettori. Se v_1, v_2, ..., v_m sono
vettori di V con m>n allora v_1, v_2, ..., v_m sono linearmente dipendenti.
Come conseguenza si ha che se V e` uno spazio vettoriale che ammette una base
formata da n vettori, allora tutte le basi di V sono costituite da n vettori
e il numero n prende il nome di dimensione di V e si indica con dim(V).
Convenzionalmente si pone uguale a zero la dimensione di uno spazio vettoriale che
si riduca al solo vettore nullo. Esempi: dim(K^n)=n poiche` K^n ammette la base
canonica che e` costituita da n vettori. Le matrici E_ij definite a suo tempo
formano una base dello spazio vettoriale M_m,n(K) delle matrici m x n a
coefficienti nel campo K, pertanto abbiamo dim(M_m,n(K))=mn. Se V � uno spazio
vettoriale n-dimensionale e v_1, v_2, ..., v_n sono vettori linearmente
indipendenti allora essi formano una base di V. Se V � uno spazio vettoriale n-
dimensionale sul campo K e se i vettori v_1, v_2, ..., v_n formano un sistema
di generatori per V allora essi formano anche una base per V.

Me 31/10/2018
Se V e` uno spazio vettoriale n-dimensionale sul campo K allora n e` il
massimo numero di vettori linearmente indipendenti che riesco a trovare in V. Se
V e` uno spazio vettoriale sul campo K e v_1, v_2, ..., v_h sono vettori di
V, si puo` definire il rango dell'insieme {v_1, v_2, ..., v_h} come il massimo
numero di vettori linearmente indipendenti che posso estrarre dall'insieme {v_1,
v_2, ..., v_h}. Tale numero coincide con la dimensione del sottospazio vettoriale
< v_1, v_2, ..., v_h > di V generato dai vettori v_1, v_2, ..., v_h. Se V �
uno spazio vettoriale n-dimensionale sul campo K e se W � un sottospazio
vettoriale di V allora anche W � finitamente generato e quindi ha dimensione
finita e dim(W) non supera dim(V); si ha dim(W)=dim(V) se e solo se W=V. Se U
e W sono sottospazi vettoriali di uno spazio vettoriale V e S e` l'unione
insiemistica di U e W allora <S> consiste di tutti i vettori che si possono
esprimere come somma di un vettore di U e di un vettore di W: tale sottospazio
vettoriale di V si indica con U+W. Dati due sottospazi vettoriali U e W di
uno spazio vettoriale V sono equivalenti le seguenti propriet�: a) Ogni vettore
di U+W si esprime in modo unico come somma di un vettore di U pi� un vettore di
W; b) l'intersezione di U con W si riduce al solo vettore nullo. Se valgono le
propriet� a) e b) si dice che la somma U+W dei sottospazi vettoriali U e W e`
una somma diretta. La formula dimensionale di Grassmann (senza dimostrazione): se
U e W sono sottospazi vettoriali di dimensione finita di uno spazio vettoriale,
allora anche il sottospazio somma U+W ha dimensione finita, uguale alla somma
delle dimensioni di U e W meno la dimensione dell'intersezione di U e W. In
particolare la somma U+W risulta diretta se e solo se dim(U+W)=dim(U)+dim(W).
L'insieme delle successioni a valori nel campo K, con le operazioni di addizione
di successioni e di moltiplicazione di un numero per una successione, forma uno
spazio vettoriale V su K. In analogia con i vettori canonici di K^n, si
definisce per j=1,2,... la j-esima successione canonica e_j in V avente tutti
i termini uguali a zero salvo il j-esimo che e` uguale a 1. Per ogni intero
positivo m le successioni canoniche e_1, e_2, ... e_m risultano linearmente
indipendenti e pertanto lo spazio vettoriale V ammette vettori linearmente
indipendenti in numero arbitrariamente alto, dunque V non puo` essere finitamente
generato. Se v_1, v_2, ..., v_h sono vettori linearmente indipendenti di uno
spazio vettoriale e se a_1, a_2, ..., a_h sono scalari tutti diversi da zero,
allora anche i vettori a_1 v_1, a_2 v_2, ..., a_h v_h sono linearmente
indipendenti. Esercizi sulla somma diretta di sottospazi vettoriali sia utilizzando
direttamente la definizione, sia utilizzando la formula di Grassmann.

Lu 05/11/2018
Dimostrazione della formula dimensionale di Grassmann, facendo uso del teorema del
completamento ad una base. Dati U e W sottospazi vettoriali di V, l'unione di
una base di U con una base di W forma senz'altro un sistema di generatori per
il sottospazio vettoriale U+W, ma non necessariamente una base; si puo` estrarre
una base con il solito procedimento di estrazione di una base da un sistema di
generatori; la somma U+W risulta essere una somma diretta se e solo se l'unione
di una base di U con una base di W risulta essere una base per il sottospazio
vettoriale U+W. Metodo per determinare una base del sottospazio vettoriale delle
soluzioni di un sistema omogeneo di equazioni lineari in n incognite: una volta
trasformata la matrice incompleta A del sistema in una matrice a gradini ridotta,
si individuano le r variabili pivotali (dove r � il rango di A) espresse come
polinomi nelle n-r variabili libere. Assegnando in sequenza il valore 1 a una
sola delle variabili libere e il valore 0 a tutte le altre si ottengono n-r
soluzioni che formano una base del sottospazio vettoriale delle soluzioni del
sistema. Il fatto che il rango dell'insieme di vettori {v_1, v_2, ..., v_h}
coincida con la dimensione del sottospazio vettoriale < v_1, v_2, ..., v_h > di
V generato dai vettori v_1, v_2, ..., v_h, giustifica il fatto che il rango per
righe di una matrice risulta essere uguale alla dimensione dello spazio vettoriale
generato dalle sue righe, mentre il rango per colonne di una matrice risulta essere
uguale alla dimensione dello spazio vettoriale generato dalle sue colonne).
Esercizi vari su sistemi di generatori, basi, somme di sottospazi vettoriali.

Me 07/11/2018
Dimostrazione del teorema che afferma l'uguaglianza tra il rango per righe e il
rango per colonne di una matrice arbitraria. Pertanto il rango di una matrice e` il
massimo numero di righe o colonne linearmente indipendenti che da essa posso
estrarre. Le operazioni elementari sui vettori di una lista finita non alterano il
sottospazio vettoriale generato dai vettori della lista e quindi non alterano il
rango dell'insieme dei vettori di volta in volta considerato. Pertanto il metodo di
Gauss-Jordan per il calcolo del rango di una matrice trasformandola in una matrice
a gradini risulta completamente giustificato. Proprieta` del rango. Il rango di una
matrice � uguale al rango della sua matrice trasposta. Il rango del prodotto di due
matrici non supera il rango di ciascun fattore. Moltiplicando una matrice a destra
o a sinistra per una matrice invertibile si ottiene una matrice dello stesso rango.
Una matrice quadrata risulta invertibile se e solo se il suo rango coincide con il
suo ordine. Esercizi su: verifica se un dato sottoinsieme di uno spazio vettoriale
e` o non e` un sottospazio vettoriale.

Ve 09/11/2018
Sottomatrici, notazioni. Il rango di una sottomatrice non supera mai il rango della
matrice da cui proviene. Il rango di una matrice e` uguale al massimo ordine delle
sue sottomatrici quadrate invertibili. Inoltre, le righe (risp. le colonne) che
concorrono a formare la sottomatrice quadrata invertibile che determina il rango
sono linearmente indipendenti. Poiche` la matrice completa di un sistema di
equazioni lineari ha soltanto una colonna in piu` della sua matrice incompleta, il
rango della matrice incompleta puo` soltanto essere o uguale al rango della matrice
incompleta oppure essere piu` grande di quest'ultimo di una sola unita`. In un
sistema di equazioni lineari AX=b ogni soluzione rappresenta una espressione
della colonna b dei termini noti come combinazione lineare delle colonne della
matrice A. Pertanto il sistema risulta compatibile se e solo se la colonna dei
termini noti risulta essere combinazione lineare delle colonne della matrice
incompleta. Pensando quindi al rango come rango per colonne si ottiene quindi una
nuova dimostrazione del teorema di Rouche`-Capelli: un sistema di equazioni lineari
e` compatibile se e solo se la sua matrice incompleta e la sua matrice completa
hanno lo stesso rango. Una permutazione dell'insieme {1,2,...,n} e` una funzione
biiettiva (cio� simultaneamente iniettiva e suriettiva) da {1,2,...,n} in se`.
Rappresentazione tabellare. Elenco di tutte le permutazioni di {1,2,3}. L'insieme
di tutte le permutazioni di {1,2,...,n} ha cardinalita` n! Una matrice
elementare e` una matrice ottenuta applicando alla matrice identica una singola
operazione elementare sulle righe. Notazione per le tre tipologie di matrici
elementari. L'inversa di una matrice elementare � ancora una matrice elementare
dello stesso tipo.

Lu 12/11/2018
La permutazione identica, la permutazione inversa di una data permutazione. Uso
della rappresentazione tabellare per determinare l'inversa di una data
permutazione. Composizione di due permutazioni. Proprieta` associativa. La
permutazione identica funge da elemento neutro per la composizione di permutazioni.
Uso della rappresentazione tabellare per determinare il prodotto di due
permutazioni assegnate. Le permutazioni di {1,2,...,n} rispetto alla composizione
di funzioni formano un gruppo detto il gruppo "simmetrico" su n oggetti. In
generale il prodotto di permutazioni non � commutativo (esempio per n=3). Cicli
(permutazioni cicliche), notazione, lunghezza di un ciclo. I punti fissi di una
permutazione danno luogo ai suoi cicli di lunghezza 1. I cicli di lunghezza 2 si
chiamano trasposizioni. Una trasposizione e` dunque una permutazione che scambia
due elementi assegnati e lascia fissi tutti gli altri. Un ciclo di lunghezza h
pu� essere rappresentato in h modi, spostando il primo elemento all'ultimo posto.
Cicli disgiunti commutano. Un ciclo di lunghezza h pu� essere rappresentato come
prodotto di h-1 trasposizioni (in modo non unico). Ogni permutazione pu� essere
rappresentata come prodotto di cicli disgiunti in modo sostanzialmente unico a meno
dell'ordine dei medesimi e a meno della rappresentazione di ciascun ciclo. Pertanto
ogni permutazione puo` essere rappresentata come prdotto di trasposizioni (in modo
non unico).

Me 14/11/2018
Inversioni di una permutazione, segno di una permutazione. Permutazioni pari e
prmutazioni dispari. Il segno � una funzione moltiplicativa: il segno del prodotto
di due permutazioni � uguale al prodotto dei segni delle due permutazioni. La
permutazione identica � una permutazione pari. Ogni trasposizione � una
permutazione dispari. La funzione che ad ogni permutazione associa la permutazione
stessa moltiplicata per una fissata trasposizione e` una biiezione del gruppo
simmetrico in se` che trasforma permutazioni pari in permutazioni dispari e
viceversa. Pertanto il gruppo simmetrico contiene tante permutazioni pari quante
permutazioni dispari. Come conseguenza della regola del prodotto per il segno,
abbiamo che una permutazione e la sua inversa hanno lo stesso segno e che il
prodotto di due permutazioni pari � ancora una permutazione pari. Pertanto le
permutazioni pari formano un sottogruppo del gruppo simmetrico S_n, chiamato
gruppo alterno e indicato con A_n. Poich� ogni permutazione pu� essere espressa
come prodotto ddi trasposizioni e poich� il segno di una permutazione �
moltiplicativo, ne segue che se una data permutazione si pu� rappresentare come
prodotto di trasposizioni, il numero di trasposizioni in ogni siffatta
rappresentazione � sempre pari o sempre dispari. Pertanto le permutazioni pari sono
quelle che possono essere rappresentate come prodotto di un numero pari di
trasposizioni, le permutazioni dispari sono quelle che possono essere rappresentate
come prodotto di un numero dispari di trasposizioni. Poiche` un ciclo di lunghezza
k pu� essere rappresentato come prodotto di k-1 trasposizioni, ne segue che il
segno di un ciclo di lunghezza k � (-1)^(k-1), quindi cicli di lunghezza dispari
sono permutazioni pari, mentre cicli di lunghezza pari sono permutazioni dispari.
Esercizi di calcolo del segno di una permutazione rappresentata in forma tabellare
scrivendola come prodotto di cicli disgiunti. Il segno di una permutazione che si
rappresenti come prodotto di s cicli disgiunti di rispettive lunghezze n_1, n_2,
... , n_s � uguale a (-1)^[(n_1-1)+(n_2-1)+...+(n_s-1)]. Determinazione delle
permutazioni pari e dispari su 2 e su 3 oggetti. La scelta di n elementi da
una matrice quadrata A d'ordine n scelti da righe e colonne distinte deve
avvenire selezionando le posizioni (1,p(1)), (2,p(2)), ... , (n,p(n)) dove p e`
una permutazione di {1,2,...,n}. Definizione di determinante di una matrice
quadrata d'ordine n. Il determinante di una matrice quadrata d'ordine 1 � uguale
all'unico coefficiente della matrice. Il determinante di una matrice quadrata
d'ordine 2 � uguale alla differenza tra il prodotto degli elementi della
diagonale principale e il prodotto degli elementi della diagonale secondaria.

Ve 16/11/2018
Regola di Sarrus per il calcolo del determinante di una matrice d'ordine 3.
Propriet� dei determinanti. Il determinante della matrice identica � uguale a uno.
Il determinante di una matrice quadrata coincide con il determinante della sua
matrice trasposta. Il determinante di una matrice con una riga (colonna) nulla �
uguale a zero. Multilineatrit� del determinante sulle righe (colonne). Scambiando
due righe (colonne) il determinante cambia di segno. Una matrice quadrata con due
righe (colonne) uguali ha determinante uguale a zero. La formula di Binet: il
determinante � una funzione moltiplicativa, cio� se A, B sono matrici quadrate
d'ordine n allora det(AB)=det(A)det(B). Conseguenza: se una matrice quadrata �
invertibile il suo determinante e` diverso da zero e il determinante della matrice
inversa risulta uguale al reciproco del determinante della matrice. Esercizi:
utilizzando la definizione di determinante si vede che il determinante di una
matrice diagonale e` uguale al prodotto degli elementi della diagonale principale;
similmente si vede che il determinante di una matrice triangolare superiore (risp.
inferiore) e` uguale al prodotto degli elementi della diagonale principale.

Lu 19/11/2018
Una matrice quadrata d'ordine n ha rango n se e solo se il suo determinante e`
diverso da zero. Se le righe (colonne) di una matrice quadrata sono linearmente
dipendenti allora il suo determinante e` uguale a zero. Il determinante di una
matrice quadrata non cambia se ad una sua riga (colonna) si aggiunge un multiplo di
un'altra riga (colonna). Se una riga (colonna) di una matrice quadrata viene
moltiplicata per uno scalare il determinante della matrice cos� ottenuta � uguale
al determinante della matrice originaria moltiplicato per lo scalare. Minori di
ordine h estratti da una matrice. Il rango di una matrice � uguale al massimo
ordine dei suoi minori non nulli. Le righe (colonne) che concorrono a formare il
minore che determina il rango sono linearmente indipendenti. Esempio di calcolo del
rango di una matrice 3x4 utilizzando questo criterio. Matrice ottenuta da una
data matrice sopprimendo una riga e una colonna: notazione. Complemento algebrico
(cofattore) di un elemento di una matrice quadrata. Notazione. Il complemento
algebrico di un elemento di una matrice quadrata non dipende dai coefficienti che
compaiono nella riga e nella colonna dell'elemento selezionato. Sviluppo di Laplace
del determinante di una matrice quadrata rispetto a una riga o a una colonna: la
somma dei prodotti degli elementi di una riga per i rispettivi complementi
algebrici e` uguale al determinante della matrice. Esempi di calcolo del
determinante di una matrice quadrata utilizzando la regola di Laplace. Prima di
applicarla conviene trasformare la matrice mediante operazioni elementari sulle
righe, rispetto alle quali il comportamento del determinante e` quindi noto,
ottenendo una matrice con una riga in cui tutti gli elementi salvo uno sono uguali
a zero: lo sviluppo di Laplace rispetto a una riga siffatta richiede il calcolo di
un solo complemento algebrico.

Me 21/11/2018
Conseguenza del Teorema di Laplace: la somma dei prodotti degli elementi di una
riga per i complementi algebrici degli elementi di un'altra riga e` uguale a zero.
Interpretazione matriciale: il prodotto di una matrice quadrata A per la matrice
trasposta della matrice dei cofattori di A � uguale alla matrice identica dello
stesso ordine moltiplicata per il determinante di A. Se det(A) � diverso da zero
allora la matrice inversa di A si ottiene moltiplicando la matrice trasposta
della matrice dei cofattori per lo scalare 1/det(A). Esempio: formula generale per
la matrice inversa di una matrice invertibile d'ordine 2. Formula di Cramer per la
risoluzione di un sistema di Cramer. Risoluzione di un sistema lineare numerico di
Cramer (di tre equazioni in tre incognite). Risoluzione di un sistema parametrico
di tre equazioni in tre incognite utilizzando il metodo di Cramer. Minore orlato di
un assegnato minore di una matrice, ottenuto aggiungendo una riga e una colonna. Il
principio dei minori orlati: il rango di una matrice � uguale a r se e solo se
esiste un minore non nullo d'ordine r i cui minori orlati, eventualmente
esistenti, siano tutti nulli.

Ve 23/11/2018
Esercizi di calcolo del rango di una matrice utilizzando il principio dei minori
orlati. Risoluzione di un sistema compatibile di equazioni lineari riconducendolo
alla regola di Cramer. In pratica si calcola il rango comune della matrice completa
e della matrice incompleta mediante il principio dei minori orlati e vengono
scartate tutte le equazioni corrispondenti a righe della matrice completa che non
concorrono a formare l'ultimo minore non nullo. Indicando come variabili pivotali
quelle relative alle colonne che concorrono a formare l'ultimo minore non nullo
trovato, tutto il resto viene portato al secondo membro dando luogo, per ogni
assegnazione di valori alle variabili libere, a un sistema di Cramer nelle sole
variabili pivotali. E` pertanto possibile utilizzare la formula di Cramer per
trovare una espressione parametrica delle variabili pivotali in funzione delle
variabili libere. Applicazione del metodo alla risoluzione di un sistema
parametrico di equazioni lineari. In genere la discussione vale per tutti i valori
del parametro salvo un numero finito di valori "singolari". Questi ultimi posso
essere risolti come sistemi numerici, utilizzando indifferentemente il metodo di
Gauss-Jordan oppure il metodo basato sulla regola di Cramer. Esempi: discussione
completa di un sistema parametrico di tre equazioni lineari in tre incognite gia`
risolto a suo tempo con il metodo di Gauss-Jordan.

Lu 26/11/2018
Definizione di funzione (applicazione, trasformazione, mappa) lineare come funzione
tra due spazi vettoriali sullo stesso campo la quale conserva l'addizione
vettoriale e la moltiplicazione di uno scalare per un vettore. Equivalentemente si
puo` richiedere che vengano conservate le combinazioni lineari di vettori.
L'immagine del vettore nullo mediante una funzione lineare e` il vettore nullo
dello spazio vettoriale d'arrivo. La funzione nulla (che manda ogni vettore del
primo spazio nel vettore nullo del secondo spazio) e` un esempio di funzione
lineare. Esempio di applicazione non lineare che manda il vettore nullo nel vettore
nullo. L'insieme Hom(V,W) di tutte le funzioni lineari F : V ---> W. Tali
funzioni si dicono anche omomorfismi. Esempio fondamentale: se A � una matrice
m x n a coefficienti nel campo K, la funzione F_A definita ponendo F_A(X) = A
X per ogni vettore colonna X dello spazio vettoriale standard K^n � una
funzione lineare. Data una funzione lineare, i trasformati di h vettori
linearmente dipendenti sono linearmente dipendenti. Se sono linearmente
indipendenti i trasformati di h vettori del dominio, allora anche i vettori
originali nel dominio risultano linearmente indipendenti. Invece la lineare
indipendeza di vettori nel dominio di una funzione lineare non viene
necessariamente conservata (si pensi ad esempio alla funzione nulla). Ulteriore
esempio di risoluzione di un sistema parametrico di equazioni lineari andando a
studiare innanzitutto la compatibilita` del sistema, determinando il rango della
matrice incompleta e quello della matrice completa mediante il principio dei minori
orlati, e ricavando le soluzioni del sistema, nei casi in cui risulta compatibile,
riconducendosi alla formula di Cramer dopo aver identificato le variabili pivotali
in corrisponednza delle colonne dell'ultimo minore non nullo utilizzato per la
determinazione del rango.

Me 28/11/2018
Immagini e controimmagini di sottospazi vettoriali mediante una funzione lineare
sono di nuovo sottospazi vettoriali. Nucleo N(F) e immagine Im(F) di una
funzione lineare F: V ---> W. Una funzione lineare F: V ---> W risulta
suriettiva se e solo se Im(F)=W, mentre risulta iniettiva se e solo se il suo
nucleo N(F) si riduce al solo vettore nullo. Se F: V ---> W � una funzione
lineare iniettiva allora conserva la lineare indipendenza, cio� le immagini di h
vettori linearmente indipendenti in V sono linearmente indipendenti in W. Una
funzione lineare risulta completamente determinata quando sono noti i trasformati
dei vettori di una base del dominio. Casi particolari di funzioni lineari.
Operatori lineari o endomorfismi di uno spazio vettoriale V. Definizione di
isomorfismo vettoriale. Automorfismi di uno spazio vettoriale V. Le funzioni
lineari definite sullo spazio vettoriale V e a valori nello spazio vettoriale
standard 1-dimensionale K (il campo degli scalari) prendono il nome di forme o
funzionali lineari. L'insieme delle forme lineari di V prende il nome di duale
algebrico di V. La formula di Laplace pu� essere utilizzata per calcolare
ricorsivamente il determinante di una matrice di Vandermonde.

Ve 30/11/2018
Data una funzione lineare F: V ---> W, i trasformati dei vettori di una base di
V formano un sistema di generatori per Im(F). Se F: V ---> W e` una funzione
lineare e V ha dimensione finita allora anche l'immagine Im(F) e il nucleo
N(F) hanno dimensione finita e vale la formula dimensionale dim(V)=dim(N(F))
+dim(Im(F)). Data una funzione lineare F definita in uno spazio vettoriale V di
dimensione n e a valori in uno spazio vettoriale W di dimensione m e fissate
due basi in V e W rispettivamente, la matrice associata a F rispetto alla
coppia di basi � la matrice m x n le cui colonne esprimono le componenti
(rispetto alla base in W) dei trasformati dei vettori della base di V. Equazione
matriciale della funzione lineare F rispetto alla coppia di basi fissate nei
rispettivi spazi vettoriali. La composizione di funzioni lineari e` lineare. La
funzione identica su un dato spazio vettoriale V e` una funzione lineare. La
funzione inversa di un isomorfismo vettoriale e` lineare e quindi e` a sua volta un
isomorfismo vettoriale. Esempio di isomorfismo vettoriale: data una base di uno
spazio vettoriale V di dimensione n sul campo K, la funzione che a ciascun
vettore associa la n-upla delle sue componenti rispetto alla base fissata e` un
isomorfismo da V a K^n. Condizione necessaria e sufficiente affinch� due spazi
vettoriali finitamente generati risultino isomorfi e` che abbiano la stessa
dimensione. La relazione "essere spazi vettoriali isomorfi" � una relazione di
equivalenza. Se F: V ---> W e` un isomorfismo vettoriale allora k vettori v_1,
v_2, ..., v_k di V sono linearmente indipendenti se e solo se tali sono i
rispettivi corrispondenti F(v_1), F(v_2), ..., F(v_k).

Lu 03/12/2018
Sia F: V ---> W una funzione lineare con dim(V)=n, dim(W)=m e sia A la
matrice associata a F rispetto a una fissata coppia di basi in V e W. Allora
l'equazione matriciale y=Ax di F rispetto a questa coppia di basi esprime le
variabili dipendenti y_1, y_2, ... , y_m del vettore colonna y come polinomi
omogenei di primo grado nelle variabili indipendenti x_1, x_2, ..., x_n del
vettore colonna x. Se V e W sono spazi vettoriali sullo stesso campo K
allora Hom(v,W) e` uno spazio vettoriale con le naturali operazioni di addizione
di funzioni lineari e di moltiplicazione di uno scalare per una funzione lineare.
Se dim(V)=n e dim(W)=m allora la funzione che a ogni F di Hom(v,W) fa
corrispndere la matrice associata a F rispetto alla coppia di basi assegnata, da`
luogo a un isomorfismo vettoriale da Hom(v,W) allo spazio vettoriale delle
matrici m x n su K. In particolare dim(Hom(v,W))=mn. Date due funzioni
lineari, F: V ---> W con matrice associata L ripetto alle basi B e C in V
e W rispettivamente, G: W ---> U con matrice associata H ripetto alle basi C
e D in W e U rispettivamente, allora la matrice associata alla funzione
composta GF: V ---> U rispetto alle basi B e D in V e U rispettivamente
e` uguale al prodotto righe per colonne HL. Date due basi (convenzionalmente: base
vecchia e base nuova) dello spazio vettoriale n-dimensionale V sul campo K, si
chiama matrice del cambiamento di base la matrice n x n le cui colonne
rappresentano le componenti dei vettori della base vecchia rispetto alla base
nuova. Tale matrice e` invertibile. La colonna della componenti di un vettore di V
rispetto alla base nuova si esprimono come prodotto della matrice del cambiamento
di base per la colonna delle componenti dello stesso vettore rispetto alla base
vecchia. La matrice del cambiamento di base puo` essere vista come matrice
associata alla funzione lineare identica rispetto alla coppia di basi assegnata. Se
F: V ---> W e` una funzione lineare con matrice associata A rispetto a una
fissata coppia di basi e si cambiano le basi negli spazi vettoriali V e W con
rispettive matrici del cambiamento di base N e M, la matrice associata a F
rispetto alla nuova coppia di basi � MAN^{-1}.

Me 05/12/2018
Se F: V ---> W e` una funzione lineare e U e` un sottospazio vettoriale di V
di cui e` noto un sistema di generatori allora i trasformati dei vettori di questo
sistema di generatori formano un sistema di generatori per il sottospazio
vettoriale F(U) di W. Il rango della matrice associata a una funzione lineare
non dipende dalle basi scelte negli spazi vettoriali coinvolti ed e` uguale alla
dimensione dell'immagine. La nullita` di una funzione lineare e` la dimensione del
nucleo, quindi se n e` la dimensione del dominio allora, per la formula
dimensionale, la nullita` e` uguale a n-rk(A) dove A e` la matrice associata.
Se A e` una matrice m x n e F_A: K^n ---> K^m e` la funzione lineare definita
dalla matrice A ponendo y=F(x)=Ax allora la matrice associata a F_A rispetto
alle basi canoniche di
K^n e di K^m e` proprio A. Nel caso degli operatori lineari (endomorfismi) si
parla di matrice associata rispetto a una sola base. Definizione di matrici simili.
La relazione di similitudine tra matrici quadrate e` una relazione di equivalenza.
Matrici simili hanno lo stesso rango e lo stesso determinante. Matrici associate a
uno stesso operatore lineare rispetto a basi diverse sono simili. Il determinante
di un operatore lineare e` definito come il determinante della matrice associata
all'operatore lineare rispetto a una qualunque base dello spazio vettoriale.
Esercizi su cambiamenti di base in uno spazio vettoriale tridimensionale sui reali.

Ve 07/12/2018
Esercizi sulla determinazione della matrice associata rispetto a una coppia di basi
quando e` nota la corrispondente matrice rispetto a un'altra coppia di basi.
Operatori lineari di uno spazio vettoriale n-dimensionale V. Una base di V si
dice diagonalizzante per un operatore lineare se la matrice associata all'operatore
rispetto a quella base risulta essere diagonale. Un operatore lineare si dice
diagonalizzabile se ammette una base diagonalizzante. Una base risulta essere
diagonalizzante per un operatore lineare se e solo se ciascuno dei suoi vettori
viene trasformato in un proprio multiplo. Un operatore lineare risulta
diagonalizzabile se e soltanto se la sua matrice associata rispetto a una
(qualunque) base risulta simile a una matrice diagonale. Definizione di autovettore
e autovalore di un operatore lineare. Una base diagonalizzante per un operatore
lineare e` dunque una base costituita interamente da autovettori. L'autovalore
relativo a un dato autovettore risulta univocamente determinato. Gli operatori
scalari sono i multipli dell'operatore identico. Se F � un operatore lineare
scalare, allora ogni vettore non nullo risulta essere un autovettore, pertanto ogni
base risulta essere costituita da autovettori e risulta quindi essere una base
diagonalizzante. Se, viceversa, ogni vettore non nullo risulta essere autovettore,
allora l'operatore lineare risulta essere un operatore scalare. Se A � una
matrice quadrata d'ordine n e X e` una variabile (che rappresenta uno scalare),
allora considerando la definizione di determinante si vede che det(A-XI_n) e` un
polinomio di grado n con coefficiente principale (-1)^n, indicato con P_A(X) e
chiamato polinomio caratteristico della matrice A. Esempi: l'operatore nullo,
l'operatore identico. Se F � un operatore lineare dello spazio vettoriale V, I
� l'operatore identico di V e c � uno scalare allora V_c(F)={ v in V : F(v)=cv
}=N(F-cI) e` un sottospazio vettoriale di V. Lo scalare c risulta essere un
autovalore per l'operatore lineare F se e solo se tale sottospazio vettoriale non
si riduce al solo vettore nullo. Dato un operatore lineare F, uno scalare c
risulta essere un autovalore di F se e solo se il nucleo N(F-cI) dell'operatore
lineare F-cI � non banale, e in tal caso questo sottospazio vettoriale prende il
nome di autospazio relativo all'autovalore c, mentre la sua dimensione prende il
nome di molteplicit� geometrica dell'autovalore c. Matrici quadrate simili hanno
lo stesso polinomio caratteristico. Se F � un operatore lineare dello spazio
vettoriale V di dimensione finita n, si definisce il polinomio caratteristico
di F, indicato con P_F(X), come il polinomio caratteristico P_A(X) di A,
essendo A la matrice associata a F rispetto a una fissata base di V. La
definizione � ben posta in quanto non dipende dalla base scelta.

Lu 10/12/2018
Uno scalare c del campo K risulta essere un autovalore dell'operatore lineare
F se e solo se � una radice del suo polinomio caratteristico. L'insieme degli
autovalori di un operatore lineare F prende talvolta il nome di spettro
dell'operatore lineare F. Esempio di un operatore lineare di R^2 il cui spettro
� l'insieme vuoto, cio� di un operatore lineare privo di autovalori. Molteplicita`
algebrica di una radice di un polinomio. Un polinomio ammette al massimo un numero
di radici pari al suo grado (contando ciascuna radice con la sua molteplicit�
algebrica). La molteplicit� algebrica di un autovalore � la sua molteplicit�
algebrica come radice del polinomio caratteristico. La molteplicit� geometrica di
un autovalore non supera la sua molteplicita` algebrica. Equazioni cartesiane di un
sottospazio vettoriale di uno spazio vettoriale n-dimensionale rispetto a una base
fissata. L'insieme delle soluzioni di un sistema omogeneo di equazioni lineari di
rango r in n incognite rappresenta un sottospazio vettoriale (n-r)-
dimensionale. Viceversa per ogni sottospazio vettoriale k-dimensionale esiste un
sistema omogeneo di equazioni lineari di rango r=n-k le cui soluzioni
rappresentano i vettori del sottospazio in componenti rispetto alla base fissata.
Esempio in R^4. Se � nota una base del sottospazio vettoriale k-dimensionale,
allora le equazioni cartesiane di quest'ultimo si ottengono uguagliando a zero i
minori d'ordine k+1 della matrice avente le prime k colonne (o righe)
costituite dalle componenti dei vettori della base del sottospazio e come (k+1)-
esima colonna (o riga) la colonna (o riga) delle incognite X_1, X_2, ..., X_n. Per
il principio dei minori orlati bastano i minori orlati di un minore d'ordine k
diverso da zero.

Me 12/12/2018
Lo scalare 0 risulta essere un autovalore per l'operatore lineare F se e solo
se il nucleo N(F) di F non si riduce al solo vettore nullo. Autovettori
relativi ad autovalori distinti sono linearmente indipendenti con dimostrazione per
induzione sul numero degli autovettori coinvolti. Conseguenza: se un operatore
lineare di uno spazio vettoriale n-dimensionale ammette n autovalori distinti
allora e` diagonalizzabile. Teorema spettrale: un operatore lineare di uno spazio
vettoriale n-dimensionale sul campo K risulta diagonalizzabile se e solo se il
suo polinomio carattteristico si spezza su K nel prodotto di n binomi di primo
grado del tipo (X-c) con c in K (distinti o no) e se inoltre la molteplicita`
geometrica di ciascun autovalore risulta uguale alla rispettiva molteplicita`
algebrica. Se un autovalore ha molteplicita` algebrica uguale a 1 allora anche la
sua molteplicit� geometrica risulta uguale a 1, pertanto la condizione riguardante
l'uguaglianza della molteplicit� algebrica e geometrica va verificata soltanto per
gli autovalori di molteplicita` algebrica maggiore di 1. Se in ciascun autospazio
di un operatore lineare si prendono autovettori linearmente indipendenti, in
particolare se si prendono i vettori di una base in ciascun autospazio, e li si
riunisce in un'unica lista di vettori si ha un insieme di vettori linearmente
indipendenti nello spazio vettoriale sul quale � definito l'operatore. Conseguenza:
la somma delle molteplicit� geometriche degli autovalori di un operatore lineare
non supera la dimensione dello spazio vettoriale. La somma delle molteplicit�
geometriche degli autovalori di un operatore lineare risulta uguale alla dimensione
dello spazio vettoriale se e solo se l'operatore e` diagonalizzabile.
Rappresentazione dei numeri complessi come coppie di numeri reali e quindi come
punti del piano cartesiano, che in questo contesto viene detto "piano di Argand-
Gauss" o semplicemente "piano complesso". Parte reale e parte immaginaria di un
numero complesso. I vettori canonici di R^2 pensati come numeri complessi
prendono il nome di unita` reale e unita` immaginaria, rispettivamente. Ogni numero
complesso viene espresso come combinazione lineare dell'unita` reale e dell'unita`
immaginaria con coefficienti dati dalla parte reale e dalla parte immaginaria,
rispettivamente. Definizione delle operazioni di addizione e moltiplicazione di
numeri complessi. Valgono le usuali propriet� (propriet� associativa e commutativa
dell'addizione, proprieta` associativa e commutativa della moltiplicazione,
propriet� distributive, elemento neutro dell'addizione, opposto di un numero
complesso, elemento neutro della moltiplicazione, esistenza del reciproco di un
numero complesso non nullo.

Ve 14/12/2018
Le proprieta` delle operazioni conferiscono all'insieme dei numeri complessi la
struttura algebrica di campo numerico. Introduzione dell'unita` immaginaria.
Rappresentazione di un numero complesso in forma algebrica come espressione a+ib
dove i � l'unit� immaginaria, mentre a e b sono umeri reali (detti parte
reale e parte immaginaria del numero complesso). Il campo dei numeri reali risulta
naturalmente immerso nel campo complesso come insieme dei numeri complessi con
parte immaginaria uguale a zero. Espressioni in campo complesso. Il coniugato di un
numero complesso. Un numero complesso coincide con il proprio numero complesso
coniugato se e solo se il numero in questione � un numero reale (cio� un numero
complesso di parte immaginaria uguale a zero). Il modulo di un numero complesso. Il
prodotto di un numero complesso con il suo numero complesso coniugato e` uguale al
quadrato del modulo. L'equazione algebrica X^2+1=0 che non ammette soluzioni
reali, ammette in campo complesso le due soluzioni +i e -i. La sola aggiunta al
campo reale delle radici del polinomio X^2+1 fa si' che valga il teroema
fondamentale dell'algebra: il campo dei numeri complessi e` algebricamente chiuso,
cio� ogni polinomio di grado positivo a coefficienti complessi ammette almeno una
radice nel campo dei numeri complessi. Pertanto ogni polinomio a coefficienti
complessi si spezza nel prodotto di polinomi di primo grado, quindi ammette nel
campo complesso tante radici quanto e` il suo grado (contando ciascuna radice con
la sua molteplicit� algebrica). Esercizi. Studio di un operatore lineare di C^2,
iniettivita`, suriettivita`, diagonalizzabilita`, determinazione della matrice
associata rispetto alla base canonica. Determinazione di una base di autovettori
per un operatore lineare di R^3.

Lu 17/12/2018
Il modulo di un numero complesso e` sempre un numero reale non negativo e vale zero
esattamente quando il numero complesso stesso e` zero. Il modulo di un prodotto di
numeri complessi e` uguale al prodotto dei rispettivi moduli. Il modulo di un
numero reale pensato come numero complesso sull'asse reale coincide con il suo
valore assoluto. Interpretazione della somma di numeri complessi mediante la regola
del parallelogrammo. Disuguaglianza triangolare per il modulo della somma di due
numeri complessi. Coordinate polari nel piano cartesiano. Forma trigonometrica di
un numero complesso. L'argomento di un numero complesso e` definito a meno di
multipli interi di un angolo giro. L'argomento principale di un numero complesso. I
numeri complessi di modulo 1 descrivono i punti del piano di Argand-Gauss che
stanno sulla circonferenza di centro l'origine e raggio 1. Ogni numero complesso
non nullo si pu� esprimere come prodotto del suo modulo per un numero complesso di
modulo 1. Il prodotto di due numeri complessi espressi in forma trigonometrica e`
uguale a un numero complesso che ha come modulo il prodotto dei moduli e come
argomento la somma degli argomenti, a meno di multipli di un angolo giro. Formula
di de Moivre per la potenza n-esima di un numero complesso. Formula di Eulero.
Rappresentazione esponenziale di un numero complesso di modulo 1 e, piu` in
generale, di un numero complesso non nullo. Esponenziale con base naturale ed
esponente complesso. Equazioni algebriche in campo complesso. Le radici complesse
del polinomio X^n-w, dove w e` un numero complesso fissato, prendono il nome di
radici complesse n-esime di w. In particolare, quando w=1 si chiamano radici
complesse n-esime dell'unit�. Se w=0 l'unica radice complessa n-esima di w
e` 0 con molteplicit� algebrica n. Se w e` diverso da zero, il polinomio X^n-
w ammette n radici distinte, ciascuna di molteplicita` algebrica 1, le quali si
distribuiscono come i vertici di un n-agono regolare sulla circonferenza di centro
l'origine e raggio uguale alla radice n-esima del modulo di w. Esempio: calcolo
delle radici complesse terze di -1. Proprieta`: se un numero complesso e` radice
di un polinomio a coefficienti reali, allora anche il suo numero complesso
coniugato risulta radice del medesimo polinomio.

Me 12/12/2018
Esercizi. Determinazione della matrice associata a un endomorfismo di uno spazio
vettoriale rispetto a basi diverse, sia utilizzando direttamente la definizione,
sia mediante le formule del cambiamento di base. Esercizi. Determinazione della
matrice associata a un endomorfismo di R^3 oppure C^3 rispetto a basi diverse.
Componenti di uno stesso vettore di C^3 rispetto a basi diverse. Calcolo
dell'inversa di una matrice d'ordine 3 a coefficienti complessi col metodo di
Gauss-Jordan. Diagonalizzabilita` di matrici quadrate sui reali.

Ve 21/12/2018
Esercizio di determinazione dell'esistenza o meno di una funzione lineare tra spazi
vettoriali assegnati che assuma valori assegnati su una lista di vettori. Posto
V*=Hom(V,K), si dice che V* e` il duale algebrico di V e i suoi elementi si
chiamano funzionali o forme lineari di V. Se dim(V)=n allora dim(V*)=n. Se V e`
uno spazio vettoriale n-dimensionale sul campo K e detto V*=Hom(V,K) il duale
algebrico di V si ha dim(V*)=1 x n= n. Se (e_1,e_2,...,e_n) e` una base di V
allora per ogni i=1,2,...,n si definisce il funzionale lineare L_i ponendo
L_i(e_j)=1 se i e` uguale a j e L_i(e_j)=0 se i e` diverso da j. I
funzionali lineari L_1, L_2, ..., L_n formano una base dello spazio vettoriale
V* (verifica diretta). La base (L_1, L_2, ..., L_n) di V* viene chiamata base
duale di (e_1,e_2,...,e_n). Ogni funzionale lineare di V e` espresso da un
opportuno polinomio di primo grado omogeneo nelle componenti di un vettore di V
rispetto alla base (e_1,e_2,...,e_n). I coefficienti di questo polinomio non sono
altro che le componenti del funzionale stesso rispetto alla base duale (L_1,
L_2, ..., L_n) di V*. La funzione che ad ogni numero complesso associa il suo
numero complesso coniugato e` una funzione biiettiva che fissa ogni numero reale e
conserva le operazioni. Si dice pertanto che questa funzione � un automorfismo del
campo complesso (si parla di automorfismo "coniugio"). Una matrice quadrata
d'ordine n ha rango n se e solo se 0 non � un autovalore, quindi una matrice
quadrata � invertibile se e solo se 0 non annulla il suo polinomio
caratteristico. Ulteriori esempi di matrici quadrate che non risultano simili a
matrici diagonali, ne` sul campo reale n� sul campo complesso.
===================================================================================
=========================================================================

Potrebbero piacerti anche