Sei sulla pagina 1di 19

UNIVERSITÀ DEGLI STUDI DI MODENA E REGGIO EMILIA

DIPARTIMENTO DI SCIENZE FISICHE, INFORMATICHE E MATEMATICHE

Argomenti delle lezioni ed esercitazioni dell’insegnamento di ALGEBRA LINEARE


per i Corsi di Laurea in Informatica e in Matematica tenute da Arrigo BONISOLI
nell'anno accademico 2017/2018

Ma 26/09/2017
Presentazione del corso. Svolgimento e materiale di supporto. Contenuti.
Modalità di accreditamento. Campi numerici: il campo razionale, il campo
reale, il campo complesso, il campo binario. Definizione di matrice m x n a
coefficienti in un campo numerico. Gli elementi del campo numerico vengono
chiamati numeri o scalari. Notazione, righe e colonne. Matrici quadrate d’ordine
n. Moltiplicazione di uno scalare per una matrice. Addizione di matrici. La
matrice nulla m x n funge da elemento neutro per l’addizione di matrici. La
matrice opposta di una matrice.
Moltiplicando lo scalare 0 per una qualunque matrice m x n si ottiene
sempre la matrice nulla m x n. Moltiplicando lo scalare 1 per una qualunque
matrice m x n si ottiene la matrice stessa. Se H è una matrice e a, b sono
scalari allora vale una sorta di proprietà associativa: (ab)H=a(bH). Proprietà
associativa dell’addizione di matrici, proprietà commutativa dell’addizione di
matrici. Proprietà distributiva della moltiplicazione di uno scalare per una
matrice rispetto all'addizione di scalari. Proprietà distributiva della
moltiplicazione di uno scalare per una matrice rispetto all'addizione di matrici.
Convenzioni sulla precedenza delle operazioni nel calcolo matriciale. Esercizio:
calcolo di espressioni che coinvolgono scalari e matrici.

Me 27/09/2017
Le righe e le colonne di una matrice. Il prodotto di una riga 1 x n per una
colonna n x 1 è un numero dato dalla somma dei prodotti degli elementi di
ugual posto nella riga e nella colonna. Moltiplicazione di due matrici (righe per
colonne). Il prodotto di due matrici si può eseguire quando il numero di
colonne della prima matrice è uguale al numero di righe della seconda.
Esempio di due matrici che si possono moltiplicare in un verso ma non
nell'altro. Il prodotto di matrici, anche quando si può eseguire in entrambi i
versi, non e` detto che sia commutativo: esempi di matrici 2 x 2 che non
commutano. La matrice nulla annulla i prodotti. La matrice identica In
d'ordine n può essere definita come quella matrice avente come coefficienti i
simboli di Kronecker.
La diagonale principale di una matrice quadrata. La matrice identica può essere
definita come quella matrice quadrata aventi tutti i coefficienti uguali a 1 sulla
diagonale principale e tutti gli altri coefficienti uguali a zero. I vettori canonici
pensati come righe (risp. colonne) aventi un unico coefficiente uguale a 1 e
tutti gli altri coefficienti uguali a zero. La matrice identica può essere definita
come quella matrice avente come righe (risp. colonne) i vettori canonici. Se A
è una matrice m x n e B è una matrice n x p allora il prodotto di A per
In è uguale ad A e il prodotto di In per B è uguale a B. Proprietà
associativa della moltiplicazione di matrici. Proprietà distributive della
moltiplicazione di matrici rispetto all'addizione. Moltiplicazione di una scalare
per un prodotto di matrici. Espressioni che coinvolgono numeri e matrici.
Combinazione lineare di una sequenza finita di matrici delle stesse dimensioni
con coefficienti assegnati. Esempi di calcolo di combinazioni lineari di matrici.

Ve 29/09/2017
Esempi di matrici quadrate non nulle 2 x 2 il cui prodotto in un verso è la
matrice nulla mentre nell'altro verso è una matrice non nulla. Si può pertanto
concludere che per quanto riguarda la moltiplicazione di matrici non vale la
cosiddetta "legge di annullamento del prodotto" che vale invece per la
moltiplicazione di numeri. La combinazione lineare di matrici in cui tutti i
coefficienti sono uguali a zero prende il nome di combinazione lineare banale.
La combinazione lineare banale di matrici dà sempre come risultato la matrice
nulla. Esempio in cui una combinazione lineare non banale dà come risultato la
matrice nulla: basta prendere una delle matrici uguale alla matrice nulla e
porre il suo coefficiente uguale a 1 mentre tutti gli altri coefficienti vengono
posti uguali a zero . Le matrici si dicono linearmente dipendenti se ammettono
una combinazione lineare non banale il cui risultato sia la matrice nulla. Si
dicono invece linearmente indipendenti se l'unica loro combinazione lineare che
dà come risultato la matrice nulla è quella banale.
Esempio di una lista di matrici tutte diverse dalla matrice nulla che sono
linearmente dipendenti. Definita Eij come la matrice 2 x 2 avente 1 nella
posizione di riga i, colonna j e tutti zeri nelle rimanenti posizioni, abbiamo
che E11, E12, E21, E22 sono linearmente indipendenti. Generalizzazione al caso
di matrici m x n: definita Eij come la matrice m x n avente 1 nella
posizione di riga i, colonna j e tutti zeri nelle rimanenti posizioni, abbiamo
che le matrici così definite sono linearmente indipendenti (e sono in numero di
mn). Trasposta di una matrice. La diagonale principale e la diagonale
secondaria di una matrice quadrata. Matrici quadrate di tipo particolare:
matrici simmetriche, matrici triangolari superiori, matrici triangolari inferiori,
matrici diagonali. La trasposta di una somma di matrici è uguale alla somma
delle rispettive matrici trasposte. La trasposta di un prodotto di matrici è
uguale al prodotto delle rispettive matrici trasposte in ordine inverso.

Ma 3/10/2017
Equazioni in una o più incognite. Il concetto di soluzione di una equazione in n
incognite. Un'equazione si dice compatibile se ammette almeno una soluzione,
incompatibile se non ammette soluzioni. Equazioni algebriche in n incognite.
Trasportando eventualmente dei termini da un membro all'altro, una equazione
algebrica può sempre essere espressa nella forma P(X1,X2,..., Xn)=0 dove
P(X1,X2,..., Xn) è un polinomio in X1 , X2 , … , Xn . Il grado dell'equazione
algebrica è dato dal grado del polinomio P(X1,X2,..., Xn). Esempi di equazioni
compatibili e incompatibili. Esempi di equazioni algebriche in più incognite che
ammettono infinite soluzioni. Risolvere un'equazione significa stabilire se è
compatibile e in caso affermativo trovarne tutte le soluzioni.
Equazioni lineari in n incognite. Coefficienti delle incognite, termine noto.
Scrittura standard di una equazione lineare in n incognite. Un'equazione
lineare in n incognite è completamente descritta dalla matrice riga dei suoi
coefficienti. Risoluzione di una equazione lineare in n incognite. Variabile
vincolata e variabili libere, rappresentazione parametrica dell'insieme delle
soluzioni di una equazione lineare. Un'equazione lineare è incompatibile se e
solo se i coefficienti delle incognite sono tutti uguali a zero e il termine noto è
diverso da zero. Nel caso di coefficienti delle incognite tutti uguali a zero e
termine noto uguale a zero si ha una identità, cioè ogni sequenza di n valori
del campo dà luogo a una soluzione. Se almeno uno dei coefficienti delle
incognite è diverso da zero allora le soluzioni dell'equazione si esprimono in
funzione di n-1 parametri liberi. Si dice anche che l'equazione ammette oo n-1
soluzioni. Sistemi di m equazioni lineari in n incognite. Una soluzione del
sistema di equazioni lineari è una soluzione comune a tutte le equazioni lineari
del sistema. Sistemi compatibili, sistemi incompatibili. Se una singola
equazione del sistema è incompatibile allora anche tutto il sistema è
incompatibile. Matrici del sistema: matrice incompleta, matrice completa,
coefficienti delle incognite, termini noti. Un sistema di equazioni lineari è
completamente descritto dalla sua matrice completa.

Me 4/10/2017
Forma matriciale di un sistema di equazioni lineari. Due sistemi di equazioni
lineari nelle stesse incognite si dicono equivalenti se sono entrambi
incompatibili oppure se sono entrambi compatibili e hanno le stesse soluzioni.
Il rango per righe di una matrice è definito come il massimo numero di righe
linearmente indipendenti che posso estrarre dalla matrice. Il rango per colonne
di una matrice è definito come il massimo numero di colonne linearmente
indipendenti che posso estrarre dalla matrice. Per una data matrice il rango per
righe è sempre uguale al rango per colonne (dimostrazione omessa per il
momento) e si può dunque parlare semplicemente di rango della matrice. Il
rango di una matrice m x n non supera il minimo tra m e n. Esempio di
calcolo del rango per righe e per colonne di una matrice 2 x 3 utilizzando la
definizione. Questo metodo in generale è poco efficiente.
Operazioni elementari sulle righe di una matrice: scambio di due righe;
moltiplicazione di una riga per un numero diverso da zero; addizione ad una
riga di un multiplo di un'altra riga. Il rango di una matrice non cambia se
questa si sottopone a una qualunque delle operazioni elementari sulle righe.
Due sistemi di equazioni lineari nelle stesse incognite le cui matrici complete
siano ottenute l'una dall'altra mediante una qualunque operazione elementare
sulle righe sono equivalenti. Pivot di una riga non nulla. Una matrice si dice a
gradini se le sue eeventuali righe nulle seguono tutte le righe non nulle e se i
pivot delle righe non nulle si dispongono strettamente da sinitra verso destra
procedendo dall'alto verso il basso.

Ve 6/10/2017
Ogni matrice può essere trasformata in una matrice a gradini mediante una
opprtuna sequenza di operazioni elementari sulle righe. Se L(1), L(2), ... ,
L(h) sono matrici m x n tra le quali vi è la matrice nulla allora esse sono
linearmente dipendenti. Le righe non nulle di una matrice a gradini sono
linearmente indipendenti. Il rango di una matrice a gradini è uguale al numero
delle sue righe non nulle, cioè al numero dei suoi pivot. Il metodo di Gauss-
Jordan per il calcolo del rango: si trasforma la matrice assegnata in una
matrice a gradini mediante opportune operazioni elementari sulle righe e si
calcola il rango di quest'ultima contando il numero dei suoi pivot. Esempi
numerici vari.
Un sistema di equazioni lineari si dice omogeneo se i termini noti di tutte le sue
equazioni sono uguali a zero. Un sistema omogeneo di equazioni lineari è
sempre compatibile perchè ammette sempre la soluzione banale ottenuta
assgnando il valore zero a ciascuna incognita. Esempio di risoluzione di un
sistema di equazioni lineari la cui matrice completa è una matrice a gradini. Un
sistema di equazioni lineari è sempre equivalente a un sistema la cui matrice
completa è a gradini. Ciascuna equazione di un siffatto sistema in n incognite
può essere riscritta isolando al primo membro l'incognita che si trova nella
posizione pivotale, trasportando al secondo membro tutto il resto. Si
individuano così r incognite, le cosiddette variabili pivotali, che, partendo
dall'ultima e sostituendo a ritroso, vengono espresse in funzione delle
rimanenti n-r incognite, le cosiddette variabili libere. Assegnando a ciascuna
variabile libera un arbitrario valore nel campo degli scalari, si ottiene così una
soluzione del sistema e viceversa, dando luogo a una rappresentazione
parametrica dell'insieme delle soluzioni che dipende da n-r parametri.
Ciascuna variabile pivotale viene espressa come polinomio di primo grado nelle
n-r variabili libere. Si dice, in breve, che il sistema ammette ∞n-r soluzioni. Il
metodo di eliminazione di Gauss-Jordan per la risoluzione di un sistema di
equazioni lineari consiste nella trasformazione della matrice completa del
sistema, mediante operazioni elementari sulle righe, in una matrice a gradini: il
sistema avente quest'ultima come matrice completa è equivalente al sistema
originario e si può risolvere nel modo precedentemente indicato. Esempi
numerici.

Ma 10/10/2017 (14-15 aula L1.3)


Matrici a gradini ridotte. Una matrice a gradini si può sempre trasformare in
una matrice a gradini ridotta mediante una opportuna sequenza di operazioni
elementari sulle righe. Pertanto una matrice arbitraria si può sempre
trasformare in una matrice a gradini ridotta mediante una opportuna sequenza
di operazioni elementari sulle righe e ogni sistema di equazioni lineari risulta
equivalente a un sistema la cui matrice completa è una matrice a gradini
ridotta. Se una singola equazione del sistema è incompatibile allora anche tutto
il sistema è incompatibile. Discussione di un sistema di equazioni lineari in n
incognite in cui la matrice completa è a gradini ridotta. Se il pivot dell'ultima
riga non nulla è nella posizione n+1, quella dei termini noti, allora il sistema
risulta incompatibile. In tal caso la matrice completa ha un pivot in più della
matrice incompleta e quindi i ranghi delle due matrici differiscono di 1. Se
invece il pivot dell'ultima riga si trova in una delle prime n posizioni allora il
sistema risulta compatibile. In tal caso, infatti, se le righe non nulle sono r,
allora il sistema risulta equivalente a quello avente come matrice completa
quella formata dalle sole r righe non nulle. Le r variabili pivotali vengono
dunque espresse direttamente come polinomi di primo grado nelle n-r
variabili libere. Inoltre la matrice completa e la matrice incompleta hanno gli
stessi pivot e quindi i ranghi delle due matrici sono uguali. Resta così anche
dimostrato il teorema di Rouchè-Capelli: un sistema di equazioni lineari è
compatibile se e solo se la sua matrice incompleta e la sua matrice completa
hanno lo stesso rango.
La matrice identica In ha rango n. La matrice J con m righe e n colonne i
cui coefficienti sono tutti uguali a 1 ha rango 1. La matrice d'ordine n che
ha tutti i coefficienti sulla diagonale principale uguali a 0 e tutti i coefficienti
sulla diagonale principale uguali a 1 ha rango n. Le sue righe (colonne) sono
le cosiddette righe (colonne) "anticanoniche" (0 in un'unica posizione, 1 in
tutte le altre), le quali dunque risultano linearmente indipendenti. Espressioni
con matrici. Potenza di una matrice quadrata ad esponente intero positivo. La
potenza di una matrice quadrata con esponente zero si pone per definizione
uguale alla matrice identica. Espressioni polinomiali il cui argomento è una
matrice. Matrici antisimmetriche. Nella risoluzione di un sistema omogeneo con
il metodo di Gauss-Jordan la colonna dei termini noti rimane nulla in tutti i
passaggi, pertanto si può operare considerando soltanto la matrice incompleta.

Me 11/10/2017
Il sistema omogeneo associato a un sistema di equazioni lineari. La soluzione
generale di un sistema compatibile di equazioni lineari si può esprimere come
somma di una sua soluzione particolare con la soluzione generale del sistema
omogeneo associato. I sistemi parametrici di equazioni lineari sono quelli nei
quali i coefficienti sono funzioni di uno o più parametri. Risolvere un sistema
parametrico dipendente da un solo parametro significa, per ogni valore del
parametro stesso, stabilire se il sistema risulta compatibile e, in caso
affermativo, trovarne tutte le soluzioni.
Esercizio di risoluzione completa di un sistema parametrico di equazioni lineari
con il metodo di Gauss-Jordan. Tipicamente la risoluzione richiede che a un
certo punto si decida se una certa espressione dipendente dal parametro è
diversa da zero, in modo da poter considerare quella espressione come il pivot
della propria riga. Ciò richiede tipicamente la discussione del comportamento
del sistema per alcuni valori "singolari" del parametro separatamente dagli
altri.

Ve 13/10/2017
Ulteriore esercizio di discussione di un sistema di equazioni lineari i cui
coefficienti dipendono da un parametro. Nel corso della risoluzione, conviene
selezionare come pivot gli eventuali coefficienti che compaiono come costanti
non nulle, in particolare i coefficienti uguali a 1, per i quali le operazioni
successive di annullamento degli elementi al disopra e al disotto del pivot
risultano particolarmente semplici.
Definizione di matrice quadrata invertibile, unicità della matrice inversa. La
matrice identica è invertibile ed è l'inversa di se stessa. Il prodotto di matrici
invertibili è invertibile e l'inversa della matrice prodotto è uguale al prodotto
delle matrici inverse in ordine inverso. In generale la moltiplicazione di matrici
invertibili non gode della proprietà commutativa. Il gruppo generale lineare
GLn(K) di tutte le matrici quadrate invertibili d'ordine n a coefficienti nel
campo K. Un sistema di n equazioni lineari in n incognite si dice di Cramer
se la sua matrice incompleta risulta invertibile. Un sistema di Cramer AX=b
ammette un'unica soluzione, data da X = A-1 b. Metodo di Gauss-Jordan per
stabilire se una data matrice quadrata è invertibile e, in caso affermativo,
calcolare la matrice inversa. Una matrice quadrata invertibile ha
necessariamente rango uguale al suo ordine. Esercizi numerici.
Ma 17/10/2017
Definizione di spazio vettoriale sul campo K. Addizione vettoriale e
moltiplicazione di un numero per un vettore. Proprietà delle operazioni.
L'insieme dei vettori rispetto all'addizione vettoriale forma un gruppo abeliano
detto il gruppo additivo dei vettori. Proprietà: moltiplicando lo zero del campo
per un qualunque vettore si ottiene il vettore nullo; moltiplicando un
qualunque numero del campo per il vettore nullo si ottiene il vettore nullo;
moltiplicando il numero -a per un qualunque vettore v si ottiene il vettore
-(av), in particolare moltiplicando il numero -1 per un qualunque vettore v si
ottiene il vettore opposto -v. Convenzioni sulla notazione e sulla precedenza
delle operazioni. Esempio. L'insieme delle matrici m x n sul campo K con le
sue operazioni di addizione di matrici e moltiplicazione di un numero per una
matrice è uno spazio vettoriale sul campo K. Caso particolare: lo spazio
vettoriale standard Kn delle n-uple ordinate di elementi del campo K può
essere pensato come spazio vettoriale delle matrici riga o come spazio
vettoriale delle matrici colonna.
Combinazione lineare di h vettori assegnati con coefficienti assegnati. La
combinazione lineare banale di vettori qualsiasi dà come risultato il vettore
nullo. Può capitare che una combinazione lineare non banale di certi vettori
dia come risultato il vettore nullo. Definizione di vettori linearmente dipendenti
e indipendenti. Se una lista di vettori contiene il vettore nullo allora i vettori
sono linearmente dipendenti. I vettori canonici di Kn sono linearmente
indipendenti. Il prodotto di un numero per un vettore dà luogo al vettore nullo
se e solo se lo scalare è zero oppure il vettore è il vettore nullo. Un singolo
vettore è linearmente indipendente se e solo se è un vettore non nullo. Se a
una lista di vettori linearmente dipendenti aggiungo altri vettori comunque
scelti ottengo ancora una lista di vettori linearmente dipendenti. Se da una
lista di vettori linearmente indipendenti sopprimo uno o più vettori, ottengo
ancora una lista di vettori linearmente indipendenti. I vettori di una lista sono
linearmente dipendenti se e solo se uno di essi si può esprimere come
combinazione lineare dei rimanenti.

Ve 20/10/2017
Sottospazi vettoriali di uno spazio vettoriale assegnato. Un sottospazio
vettoriale contiene sempre il vettore nullo. Esempi di sottospazi vettoriali: il
sottospazio vettoriale costituito dal solo vettore nullo e l'intero spazio
vettoriale. L'insieme delle soluzioni di un sistema omogeneo di equazioni lineari
in n incognite a coefficienti nel campo K è un sottospazio vettoriale di Kn.
Esempi di sottoinsiemi che non sono sottospazi vettoriali pur contenendo il
vettore nullo. Un sottoinsieme non vuoto di uno spazio vettoriale risulta essere
un sottospazio vettoriale se e solo se è chiuso rispetto alle combinazioni lineari
dei propri vettori. L'intersezione di due sottospazi vettoriali è un sottospazio
vettoriale. L'intersezione di una famiglia arbitraria, anche infinita, di sottospazi
vettoriali è un sottospazio vettoriale. L'unione di sottospazi vettoriali non è
detto che sia un sottospazio vettoriale.
Dato un sottoinsieme non vuoto S di uno spazio vettoriale V, l'intersezione di
tutti i sottospazi vettoriali di V contenenti S è un sottospazio vettoriale che
contiene S e risulta essere il più piccolo (rispetto all'inclusione insiemistica)
sottospazio vettoriale contenente S, detto il sottospazio vettoriale generato da
S, denotato con <S> oppure con L(S). Casi particolari. Caso in cui
S={v1,v2,...,vh} è costituito da una lista finita di vettori. In tal caso il
sottospazio vettoriale generato da S coincide con l'insieme dei vettori che si
possono esprimere come opportuna combinazione lineare dei vettori v1 , v2 ,
…, vh. Caso particolare in cui h=1: in tal caso L(S) consiste di tutti e soli i
vettori che sono proporzionali a v1 .

Ma 24/10/2017
Se il sottospazio vettoriale <S> generato da S coincide con tutto lo spazio
vettoriale V, allora si dice che S forma un sistema di generatori per V. Si dice
che uno spazio vettoriale è finitamente generato se ammette un sistema di
generatori costituito da un numero finito di vettori. Caso in cui S è l'unione
insiemistica di U e W, dove U e W sono sottospazi vettoriali di V. In tal
caso <S> consiste di tutti i vettori che si possono esprimere come somma di
un vettore di U e di un vettore di W. Dati due sottospazi vettoriali U e W di
uno spazio vettoriale V sono equivalenti le seguenti proprietà: a) Ogni vettore
di U+W si esprime in modo unico come somma di un vettore di U più un
vettore di W; b) l'intersezione di U con W si riduce al solo vettore nullo. Se
valgono le proprietà a) e b) si dice che la somma U+W dei sottospazi
vettoriali U e W è una somma diretta.
Definizione di base finita di uno spazio vettoriale. Esempio: i vettori canonici di
Kn formano una base di Kn, detta base canonica. I vettori "anticanonici" di
Rn formano una base di Rn. Se v1, v2, ..., vk sono vettori linearmente
indipendenti e se un dato vettore si può rappresentare come combinazione
lineare di v1, v2, ..., vk, tale rappresentazione risulta unica. Se uno spazio
vetttoriale ammette una base finita allora ciascun vettore si può esprimere in
modo unico come combinazione lineare dei vettori della base: i coefficienti di
questa combinazione lineare prendono il nome di "componenti" del vettore
rispetto alla base fissata. Le componenti di un vettore (x 1, x2, ..., xn) di Kn
rispetto alla base canonica sono proprio i numeri x 1, x2, ..., xn. Esercizio di
determinazione delle componenti di un vettore di Rn rispetto alla base
anticanonica, note le sue componenti rispetto alla base canonica.

Me 25/10/2017
Le matrici Eij formano una base dello spazio vettoriale delle matrici m x n a
coefficienti nel campo K. Se S={v1,v2,...,vh} è un sistema di generatori per
lo spazio vettoriale V (che non si riduca al solo vettore nullo) allora esiste una
base B di V ottenuta da S eliminando opportunamente alcuni vettori di S.
Il metodo prevede che si analizzino in sequenza i vettori di S e si proceda
all'eliminazione di quei vettori della lista che si possono esprimere come
combinazione lineare dei vettori precedenti.
Esercizio. Dati i quattro vettori v1=(1,1), v2=(1-2), v3=(0,1), v4=(-1,-1) di
R2, verificare che formano un sistema di generatori. Estrarre una base B di
R2 dall'insieme S={v1, v2, v3, v4}. Determinare le componenti di un generico
vettore v=(x1,x2) di R2 rispetto alla base B.

Ve 27/10/2017
Sia V uno spazio vettoriale che non si riduce al solo vettore nullo e che
ammette un sistema di generatori costituito da n vettori. Se v1, v2, … , vm
sono vettori di V con m>n allora sono linearmente dipendenti. Come
conseguenza si ha che se V è uno spazio vettoriale che ammette una base
formata da n vettori, allora tutte le basi di V sono costituite da n vettori e
il numero n prende il nome di dimensione di V e si indica con dim(V).
Convenzionalmente si pone uguale a zero la dimensione di uno spazio
vettoriale che si riduca al solo vettore nullo. Esempi: dim(Kn)=n;
dim(Mm,n(K))=mn. Se V è uno spazio vettoriale n-dimensionale e v1, v2, … ,
vn sono vettori linearmente indipendenti allora essi formano una base di V.
Se V è uno spazio vettoriale n-dimensionale sul campo K e se i vettori v1 ,
v2, … , vn formano un sistema di generatori per V allora essi formano anche
una base per V.
Il teorema del completamento ad una base: se V è uno spazio vettoriale n-
dimensionale e v1, v2, … , vk sono vettori linearmente indipendenti con k<n
allora esistono n-k vettori vk+1, vk+2, … , vn tali che {v1, v2, … , vk , vk+1,
vk+2 , … , vn} sia una base di V. In particolare vk+1, vk+2 , … , vn possono
essere scelti opportunamente da una base assegnata {e1, e2, … , en} di V. Se
v1, v2, … , vk sono vettori linearmente indipendenti e se a1, a2, … , ak sono
scalari tutti diversi da zero, allora anche i vettori a1v1, a2 v2, … , ak vk
sono linearmente indipendenti. Esercizi su: stabilire se un dato sottoinsieme è
un sottospazio vettoriale; somma diretta di sottospazi vettoriali; verifica che
una data lista di vettori forma una base.

Ma 31/10/2017
Se V è uno spazio vettoriale n-dimensionale sul campo K e se W è un
sottospazio vettoriale di V allora anche W è finitamente generato e quindi
ha dimensione finita e dim(W) non supera dim(V); si ha dim(W)=dim(V) se
e solo se W=V. La formula dimensionale di Grassmann: se U e W sono
sottospazi vettoriali di dimensione finita di uno spazio vettoriale, allora anche il
sottospazio somma U+W ha dimensione finita, uguale alla somma delle
dimensioni di U e W meno la dimensione dell'intersezione di U e W. In
particolare la somma U+W risulta diretta se e solo se dim(U+W)=dim(U)
+dim(W).
Esempio di uno spazio vettoriale che non è finitamente generato: V=SK
insieme delle successioni a valori nel campo K, con le operazioni di addizione
di successioni e di moltiplicazione di un numero per una successione. Esercizi
sulla somma diretta di sottospazi vettoriali utilizzando la formula di
Grassmann.
Ve 3/11/2017
Se V è uno spazio vettoriale sul campo K e v1, v2, … , vh sono vettori di V,
si definisce il rango dell'insieme {v1, v2, … , vh} come il massimo numero di
vettori linearmente indipendenti che posso estrarre dall'insieme {v1, v2 , … ,
vh}. Tale numero coincide con la dimensione del sottospazio vettoriale < v1,
v2, … , vh > di V generato dai vettori v1, v2, … , vh. Operazioni elementari
sui vettori v1, v2, … , vh. Le operazioni elementari non alterano il sottospazio
vettoriale generato dai vettori e quindi non alterano il rango dell'insieme dei
vettori di volta in volta considerato. In particolare, il rango per righe (risp.
colonne) di una matrice risulta essere uguale alla dimensione dello spazio
vettoriale generato dalle sue righe (risp. colonne). Dimostrazione del teorema
che afferma l'uguaglianza tra il rango per righe e il rango per colonne di una
matrice arbitraria. Pertanto il rango di una matrice è il massimo numero di
righe o colonne linearmente indipendenti che da essa posso estrarre.
Proprietà del rango. Il rango di una matrice è uguale al rango della sua matrice
trasposta. Il rango del prodotto di due matrici non supera il rango di ciascun
fattore. Moltiplicando una matrice a destra o a sinistra per una matrice
invertibile si ottiene una matrice dello stesso rango. Una matrice quadrata
risulta invertibile se e solo se il suo rango coincide con il suo ordine. Metodo
per determinare una base del sottospazio vettoriale delle soluzioni di un
sistema omogeneo di equazioni lineari in n incognite: una volta trasformata la
matrice incompleta A del sistema in una matrice a gradini ridotta, si
individuano le r variabili pivotali (dove r è il rango di A) espresse come
polinomi nelle n-r variabili libere. Assegnando in sequenza il valore 1 a una
sola delle variabili libere e il valore 0 a tutte le altre si ottengono n-r
soluzioni che formano una base del sottospazio vettoriale delle soluzioni del
sistema.

Ma 7/11/2017
Sottomatrici, notazioni. Il rango di una sottomatrice non supera mai il rango
della matrice da cui proviene. Il rango di una matrice è uguale al massimo
ordine delle sue sottomatrici quadrate invertibili. Inoltre, le righe (risp. le
colonne) che concorrono a formare la sottomatrice quadrata invertibile che
determina il rango sono linearmente indipendenti. Poichè la matrice completa
di un sistema di equazioni lineari ha soltanto una colonna in più della sua
matrice incompleta, il rango della matrice incompleta può soltanto essere o
uguale al rango della matrice incompleta oppure essere più grande di
quest'ultimo di una sola unità. In un sistema di equazioni lineari AX=b ogni
soluzione rappresenta una espressione della colonna b dei termini noti come
combinazione lineare delle colonne della matrice A. Pertanto il sistema risulta
compatibile se e solo se la colonna dei termini noti risulta essere combinazione
lineare delle colonne della matrice incompleta. Pensando quindi al rango come
rango per colonne si ottiene quindi una nuova dimostrazione del teorema di
Rouchè-Capelli: un sistema di equazioni lineari è compatibile se e solo se la
sua matrice incompleta e la sua matrice completa hanno lo stesso rango.
Una permutazione dell'insieme {1,2,...,n} è una funzione biiettiva (cioè
simultaneamente iniettiva e suriettiva) da {1,2,...,n} in sè. Rappresentazione
tabellare. Elenco di tutte le permutazioni di {1,2,3}. L'insieme di tutte le
permutazioni di {1,2,...,n} ha cardinalità n! La permutazione identica, la
permutazione inversa di una data permutazione. Uso della rappresentazione
tabellare per determinare l'inversa di una data permutazione.

Me 8/11/2017
Composizione di due permutazioni. Proprietà associativa. La permutazione
identica funge da elemento neutro per la composizione di permutazioni. Uso
della rappresentazione tabellare per determinare il prodotto di due
permutazioni assegnate. Le permutazioni di {1,2,...,n} rispetto alla
composizione di funzioni formano un gruppo detto il gruppo "simmetrico" su n
oggetti. In generale il prodotto di permutazioni non è commutativo (esempio
per n=3). Cicli (permutazioni cicliche), notazione, lunghezza di un ciclo. I
punti fissi di una permutazione danno luogo ai suoi cicli di lunghezza 1.
Una matrice elementare è una matrice ottenuta applicando alla matrice
identica una singola operazione elementare sulle righe. Notazione per le tre
tipologie di matrici elementari. Effettuare una operazione elementare sulle
righe di una matrice equivale a moltiplicare la matrice stessa a sinistra per la
corrispondente matrice elementare. L'inversa di una matrice elementare è
ancora una matrice elementare dello stesso tipo.

Ve 10/11/2017
I cicli di lunghezza 2 si chiamano trasposizioni. Una trasposizione è dunque
una permutazione che scambia due elementi assegnati e lascia fissi tutti gli
altri. Un ciclo di lunghezza h può essere rappresentato in h modi, spostando
il primo elemento all'ultimo posto. Cicli disgiunti commutano. Un ciclo di
lunghezza h può essere rappresentato come prodotto di h-1 trasposizioni (in
modo non unico). Ogni permutazione può essere rappresentata come prodotto
di cicli disgiunti in modo sostanzialmente unico a meno dell'ordine dei
medesimi e a meno della rappresentazione di ciascun ciclo. Pertanto ogni
permutazione può essere rappresentata come prdotto di trasposizioni (in modo
non unico).
Una matrice quadrata è invertibile se e solo se essa si può esprimere come
prodotto di matrici elelmentari. Una matrice quadrata è invertibile se e solo se
essa si può trasformare nella matrice identica mediante una opportuna
sequenza di operazioni elementari sulle righe. Questo risultato giustifica il
metodo di Gauss-Jordan per il calcolo della matrice inversa. Esercizio numerico
di rappresentazione di una matrice invertibile 2x2 come prodotto di matrici
elementari.

Ma 14/11/2017
Inversioni di una permutazione, segno di una permutazione. Permutazioni pari
e prmutazioni dispari. Il segno è una funzione moltiplicativa: il segno del
prodotto di due permutazioni è uguale al prodotto dei segni delle due
permutazioni. La permutazione identica è una permutazione pari. Ogni
trasposizione è una permutazione dispari. La funzione che ad ogni
permutazione associa la permutazione stessa moltiplicata per una fissata
trasposizione è una biiezione del gruppo simmetrico in sè che trasforma
permutazioni pari in permutazioni dispari e viceversa. Pertanto il gruppo
simmetrico contiene tante permutazioni pari quante permutazioni dispari.
Come conseguenza della regola del prodotto per il segno, abbiamo che una
permutazione e la sua inversa hanno lo stesso segno e che il prodotto di due
permutazioni pari è ancora una permutazione pari. Pertanto le permutazioni
pari formano un sottogruppo del gruppo simmetrico Sn, chiamato gruppo
alterno e indicato con An.
Poichè un ciclo di lunghezza k può essere rappresentato come prodotto di k-
1 trasposizioni, ne segue che il segno di un ciclo di lunghezza k è (-1)k-1,
quindi cicli di lunghezza dispari sono permutazioni pari, mentre cicli di
lunghezza pari sono permutazioni dispari. Esercizi di calcolo del segno di una
permutazione rappresentata in forma tabellare scrivendola come prodotto di
cicli disgiunti. Il segno di una permutazione che si rappresenti come prodotto di
s cicli disgiunti di rispettive lunghezze n1, n2, … , ns è uguale a (-1)(n1-1)+(n2-
1)+...+(ns-1)
. Determinazione delle permutazioni pari e dispari su 2 e su 3
oggetti. La scelta di n elementi da una matrice quadrata A d'ordine n
scelti da righe e colonne distinte deve avvenire selezionando le posizioni
(1,p(1)), (2,p(2)), ... , (n,p(n)) dove p e` una permutazione di {1,2,...,n}.
Definizione di determinante di una matrice quadrata d'ordine n. Il
determinante di una matrice quadrata d'ordine 1 è uguale all'unico
coefficiente della matrice. Il determinante di una matrice quadrata d'ordine 2
è uguale alla differenza tra il prodotto degli elementi della diagonale principale
e il prodotto degli elementi della diagonale secondaria. Regola di Sarrus per il
calcolo del determinante di una matrice d'ordine 3.

Me 15/11/2017
Poichè ogni permutazione può essere espressa come prodotto ddi trasposizioni
e poichè il segno di una permutazione è moltiplicativo, ne segue che se una
data permutazione si può rappresentare come prodotto di trasposizioni, il
numero di trasposizioni in ogni siffatta rappresentazione è sempre pari o
sempre dispari. Pertanto le permutazioni pari sono quelle che possono essere
rappresentate come prodotto di un numero pari di trasposizioni, le
permutazioni dispari sono quelle che possono essere rappresentate come
prodotto di un numero dispari di trasposizioni. Proprietà dei determinanti. Il
determinante della matrice identica è uguale a uno. Il determinante di una
matrice diagonale è uguale al prodotto degli elementi della diagonale
principale. Il determinante di una matrice quadrata coincide con il
determinante della sua matrice trasposta. Il determinante di una matrice con
una riga (colonna) nulla è uguale a zero.
Multilineatrità del determinante sulle righe (colonne). Scambiando due righe
(colonne) il determinante cambia di segno. Una matrice quadrata con due righe
(colonne) uguali ha determinante uguale a zero. Enunciato della formula di
Binet: il determinante è una funzione moltiplicativa, cioè se A, B sono matrici
quadrate d'ordine n allora det(AB)=det(A)det(B). Conseguenza: se una
matrice quadrata è invertibile il suo determinante è diverso da zero e il
determinante della matrice inversa risulta uguale al reciproco del determinante
della matrice.
Ve 17/11/2017
Dimostrazione della formula di Binet. Una matrice quadrata d'ordine n ha
rango n se e solo se il suo determinante è diverso da zero. Se le righe
(colonne) di una matrice quadrata sono linearmente dipendenti allora il suo
determinante è uguale a zero. Il determinante di una matrice quadrata non
cambia se ad una sua riga (colonna) si aggiunge un multiplo di un'altra riga
(colonna). Se una riga (colonna) di una matrice quadrata viene moltiplicata per
uno scalare il determinante della matrice così ottenuta è uguale al
determinante della matrice originaria moltiplicato per lo scalare. Il
determinante di una matrice triangolare superiore (inferiore) è uguale al
prodotto degli elementi della diagonale principale.
Esempi di calcolo del determinante di una matrice quadrata utilizzando
operazioni elementari sulle righe, rispetto alle quali il comportamento del
determinante è quindi noto, e trasformando la matrice in una matrice
triangolare superiore oppure in una matrice con righe linearmente dipendenti.
Minori di ordine h estratti da una matrice. Il rango di una matrice è uguale al
massimo ordine dei suoi minori non nulli. Le righe (colonne) che concorrono a
formare il minore che determina il rango sono linearmente indipendenti.
Matrice ottenuta da una data matrice sopprimendo una riga e una colonna:
notazione.

Ma 21/11/2017
Complemento algebrico (cofattore) di un elemento di una matrice quadrata.
Notazione. Il complemento algebrico di un elemento di una matrice quadrata
non dipende dai coefficienti che compaiono nella riga e nella colonna
dell'elemento selezionato. Sviluppo di Laplace del determinante di una matrice
quadrata rispetto a una riga o a una colonna: la somma dei prodotti degli
elementi di una riga per i rispettivi complementi algebrici è uguale al
determinante della matrice. Conseguenza: la somma dei prodotti degli
elementi di una riga per i complementi algebrici degli elementi di un'altra riga è
uguale a zero.
Esercizi di calcolo del determinante di una matrice quadrata usando la formula
dello sviluppo di Laplace. Il metodo risulta particolarmente conveniente se lo
sviluppo avviene rispetto a una riga (risp. colonna) che presenta molti zeri. A
tale scopo si può preliminarmente trasformare la matrice mediante operazioni
elementari sulle righe o sulle colonne che non alterino il determinante della
matrice. La formula di Laplace può essere utilizzata per calcolare
ricorsivamente il determinante di una matrice di Vandermonde.

Me 22/11/2017
Il prodotto di una matrice quadrata A per la matrice trasposta della matrice
dei cofattori di A è uguale alla matrice identica dello stesso ordine moltiplicata
per il determinante di A. Se det(A) è diverso da zero allora la matrice inversa
di A si ottiene moltiplicando la matrice trasposta della matrice dei cofattori
per lo scalare 1/det(A). Esempio: formula generale per la matrice inversa di
una matrice invertibile d'ordine 2. Formula di Cramer per la risoluzione di un
sistema di Cramer. Risoluzione di un sistema lineare numerico di Cramer (di tre
equazioni in tre incognite).
Minore orlato di un assegnato minore di una matrice, ottenuto aggiungendo
una riga e una colonna. Principio dei minori orlati: il rango di una matrice è
uguale a r se e solo se esiste un minore non nullo d'ordine r i cui minori
orlati, eventualmente esistenti, siano tutti nulli. Esercizi di calcolo del rango di
una matrice utilizzando il principio dei minori orlati.

Ve 24/11/2017
Definizione di funzione (applicazione, trasformazione, mappa) lineare come
funzione tra due spazi vettoriali sullo stesso campo la quale conserva
l'addizione vettoriale e la moltiplicazione di uno scalare per un vettore.
Equivalentemente si può richiedere che vengano conservate le combinazioni
lineari di vettori. L'immagine del vettore nullo mediante una funzione lineare è
il vettore nullo dello spazio vettoriale d'arrivo. Una funzione costante è lineare
se e solo se l'immagine di ogni vettore del dominio è il vettore nullo dello
spazio vettoriale di arrivo. Quindi la funzione nulla è un esempio di funzione
lineare. Esempio di applicazione non lineare che manda il vettore nullo nel
vettore nullo. L'insieme Hom(V,W) di tutte le funzioni lineari F : V ---> W.
Tali funzioni si dicono anche omomorfismi. Esempio fondamentale: se A è una
matrice m x n a coefficienti nel campo K, la funzione FA definita ponendo
FA (X) = A X per ogni vettore colonna X dello spazio vettoriale standard Kn
è una funzione lineare.
Risoluzione di un sistema compatibile di equazioni lineari riconducendolo alla
regola di Cramer. In pratica si calcola il rango comune della matrice completa e
della matrice incompleta mediante il principio dei minori orlati e vengono
scartate tutte le equazioni corrispondenti a righe della matrice completa che
non concorrono a formare l'ultimo minore non nullo. Indicando come variabili
pivoltali quelle relative alle colonne che concorrono a formare l'ultimo minore
non nullo trovato, tutto il resto viene portato al secondo membro dando luogo,
per ogni assegnazione di valori alle variabili libere, a un sistema di Cramer
nelle sole variabili pivotali. E` pertanto possibile utilizzare la formula di Cramer
per trovare una espressione parametrica delle variabili pivotali in funzione delle
variabili libere. Applicazione del metodo alla risoluzione di un sistema
parametrico di equazioni lineari. In genere la discussione vale per tutti i valori
del parametro salvo un numero finito di valori "singolari". Questi ultimi posso
essere risolti come sistemi numerici, utilizzando indifferentemente il metodo di
Gauss-Jordan oppure il metodo basato sulla regola di Cramer. Esempi:
discussione completa di un sistema parametrico di tre equazioni lineari in tre
incognite già risolto a suo tempo con il metodo di Gauss-Jordan.

Ma 28/11/2017
Immagini e controimmagini di sottospazi vettoriali mediante una funzione
lineare sono di nuovo sottospazi vettoriali. Nucleo e immagine di una funzione
lineare. Una funzione lineare F: V ---> W risulta suriettiva se e solo se
Im(F)=W, mentre risulta iniettiva se e solo se il suo nucleo si riduce al solo
vettore nullo. Data una funzione lineare, i trasformati di h vettori linearmente
dipendenti sono linearmente dipendenti. Se viceversa sono linearmente
indipendenti i trasformati allora anche i vettori originali risultano linearmente
indipendenti. Invece la lineare indipendeza di vettori nel dominio di una
funzione lineare non viene necessariamente conservata (si pensi ad esempio
alla funzione nulla). Se F: V ---> W è una funzione lineare iniettiva allora
conserva la lineare indipendenza, cioè le immagini di h vettori linearmente
indipendenti in V sono linearmente indipendenti in W. Una funzione lineare
risulta completamente determinata quando sono noti i trasformati dei vettori di
una base.
Definizione di isomorfismo vettoriale. Esempio di isomorfismo vettoriale: data
una base di uno spazio vettoriale V di dimensione n sul campo K, la
funzione che a ciascun vettore associa la n-upla delle sue componenti rispetto
alla base fissata è un isomorfismo da V a Kn. Condizione necessaria e
sufficiente affinchè due spazi vettoriali finitamente generati risultino isomorfi è
che abbiano la stessa dimensione. La relazione "essere spazi vettoriali
isomorfi" è una relazione di equivalenza.

Me 29/11/2017
Se F: V ---> W è un isomorfismo vettoriale allora k vettori v1, v2, ..., vk di
V sono linearmente indipendenti se e solo se tali sono i rispettivi
corrispondenti F(v1), F(v2), ..., F(vk). Data una funzione lineare F: V ---> W,
se U è un sottospazio vettoriale di V di cui è noto un sistema di generatori
allora i trasformati dei vettori di questo sistema di generatori formano un
sistema di generatori per il sottospazio vettoriale F(U) di W. Quindi i
trasformati dei vettori di un sistema di generatori (in particolare: di una base)
di V formano un sistema di generatori per Im(F). Se F: V ---> W è una
funzione lineare e V ha dimensione finita allora anche l'immagine Im(F) e il
nucleo N(F) hanno dimensione finita e vale la formula dimensionale
dim(V)=dim(N(F))+dim(Im(F)). Rango e nullità di una funzione lineare. Data
una funzione lineare F definita in uno spazio vettoriale V di dimensione n e
a valori in uno spazio vettoriale W di dimensione m e fissate due basi in V
e W rispettivamente, la matrice associata a F rispetto alla coppia di basi è la
matrice m x n le cui colonne esprimono le componenti (rispetto alla base in
W) dei trasformati dei vettori della base di V. Equazione matriciale della
funzione lineare F rispetto alla coppia di basi fissate nei rispettivi spazi
vettoriali.
Se F: Kn ---> Km, e` una funzione lineare che al vettore (x1,x2,..., xn) di Kn
associa il vettore (y1,y2,..., ym) di Km, allora considerando la matrice
associata a F rispetto alle basi canoniche di Kn e Km rispettivamente si
ottiene che ciascuna variabile dipendente yi è esprimibile come polinomio
omogeneo di primo grado in x1, x2, ..., xn i cui coefficienti sono proprio gli
elementi che compaiono nella i-esima riga della matrice associata. Esercizio di
verifica che una assegnata funzione è lineare e determinazione della sua
matrice associata rispetto a una coppia di basi fissate.

Ve 1/12/2017
Siano V e W spazi vettoriali di rispettive dimensioni n e m con basi
assegnate. Se A è una matrice m x n allora esiste una e una sola funzione
lineare F: V ---> W avente A come matrice associata rispetto alla data
coppia di basi. Se V=Kn, W=Km e le basi sono quelle canoniche la funzione
cercata è proprio la funzione FA definita in precedenza. Date due basi (vecchia
e nuova) di V (spazio vettoriale n-dimensionale) si chiama matrice del
cambiamento di base la matrice n x n le cui colonne rappresentano le
componenti dei vettori della base vecchia rispetto alla base nuova. Tale matrice
è invertibile. Le componenti di un vettore rispetto alla base nuova si esprimono
come prodotto della matrice del cambiamento di base per la colonna delle
componenti rispetto alla base vecchia. La matrice del cambiamento di base può
essere vista come matrice associata alla funzione lineare identica rispetto alla
coppia di basi assegnata. Se F: V ---> W è lineare con matrice associata A
rispetto a una fissata coppia di basi e si cambiano le basi negli spazi vettoriali
V e W con rispettive matrici del cambiamento di base L e M, la matrice
associata a F rispetto alla nuova coppia di basi è M-1AL.
Il rango della matrice associata è uguale al rango della funzione lineare da essa
rappresentata, cioè alla dimensione dell'immagine. Nel caso degli operatori
lineari (endomorfismi) si parla di matrice associata rispetto a una sola base.
Definizione di matrici simili. La relazione di similitudine tra matrici quadrate è
una relazione di equivalenza. Matrici simili hanno lo stesso rango e lo stesso
determinante. Matrici associate a uno stesso operatore lineare rispetto a basi
diverse sono simili. Il determinante di un operatore lineare è definito come il
determinante della matrice associata all'operatore lineare rispetto a una
qualunque base dello spazio vettoriale. Esercizi su cambiamenti di base in R2
e in R3.

Ma 5/12/2017
Definizione di autovettore e autovalore di un operatore lineare. L'autovalore
relativo a un dato autovettore risulta univocamente determinato. Esempio: lo
scalare 0 risulta essere un autovalore per l'operatore lineare F se e solo se il
nucleo N(F) di F non si riduce al solo vettore nullo. Una base si dice
diagonalizzante per un operatore lineare se la matrice associata all'operatore
rispetto a quella base risulta essere diagonale. Un operatore lineare si dice
diagonalizzabile se ammette una base diagonalizzante. Una base risulta essere
diagonalizzante per un operatore lineare se e solo se ciascuno dei suoi vettori è
un autovettore. Un operatore lineare risulta diagonalizzabile se e soltanto se la
sua matrice associata rispetto a una (qualunque) base risulta simile a una
matrice diagonale. Se A è una matrice quadrata d'ordine n e X è una
variabile (che rappresenta uno scalare), allora considerando la definizione di
determinante si vede che det(A-XIn) è un polinomio di grado n con
coefficiente principale (-1) n, indicato con PA(X) e chiamato polinomio
caratteristico della matrice A.
Equazioni cartesiane di un sottospazio vettoriale di uno spazio vettoriale n-
dimensionale rispetto a una base fissata. L'insieme delle soluzioni di un sistema
omogeneo di equazioni lineari di rango r in n incogtnite rappresenta un
sottospazio vettoriale (n-r)-dimensionale. Viceversa per ogni sottospazio
vettoriale k-dimensionale esiste un sistema omogeneo di equazioni lineari di
rango r=n-k le cui soluzioni rappresentano i vettori del sottospazio in
componenti rispetto alla base fissata. Esempio in R4. Se è nota una base del
sottospazio vettoriale k-dimensionale, allora le equazioni cartesiane di
quest'ultimo si ottengono uguagliando a zero i minori d'ordine k+1 della
matrice avente le prime k colonne costituite dalle componenti dei vettori della
base del sottospazio e come (k+1)-esima colonna la colonna delle incognite
X1, X2, ..., Xn (bastano i minori orlati di un minore d'ordine k diverso da
zero).

Me 6/12/2017
Esempi: l'operatore nullo, l'operatore identico. Gli operatori scalari sono i
multipli dell'operatore identico. Se F è un operatore lineare scalare, allora
ogni vettore non nullo risulta essere un autovettore, pertanto ogni base risulta
essere costituita da autovettori e risulta quindi essere una base
diagonalizzante. Se, viceversa, ogni vettore non nullo risulta essere
autovettore, allora l'operatore lineare risulta essere un operatore scalare. Se F
è un operatore lineare dello spazio vettoriale V, I è l'operatore identico di V
e c è uno scalare allora Vc(F)={ v in V : F(v)=cv }=N(F-cI) è un sottospazio
vettoriale di V. Lo scalare c risulta essere un autovalore per l'operatore
lineare F se e solo se tale sottospazio vettoriale non si riduce al solo vettore
nullo. Dato un operatore lineare F, uno scalare c risulta essere un autovalore
di F se e solo se il nucleo N(F-cI) dell'operatore lineare F-cI è non banale, e
in tal caso questo sottospazio vettoriale prende il nome di autospazio relativo
all'autovalore c, mentre la sua dimensione prende il nome di molteplicità
geometrica dell'autovalore c.
Matrici quadrate simili hanno lo stesso polinomio caratteristico. Se F è un
operatore lineare dello spazio vettoriale V di dimensione finita n, si definisce
il polinomio caratteristico di F, indicato con PF(X), come il polinomio
caratteristico PA(X) di A, essendo A la matrice associata a F rispetto a
una fissata base di V. La definizione è ben posta in quanto non dipende dalla
base scelta. Uno scalare c del campo K risulta essere un autovalore
dell'operatore lineare F se e solo se è una radice del suo polinomio
caratteristico. L'insieme degli autovalori di un operatore lineare F prende
talvolta il nome di spettro dell'operatore lineare F. Esempio di un operatore
lineare di R2 il cui spettro è l'insieme vuoto, cioè di un operatore lineare privo
di autovalori. Autovettori relativi ad autovalori distinti sono linearmente
indipendenti (dimostrazione per induzione sul numero degli autovettori
coinvolti).

Ma 12/12/2017
Molteplicità algebrica di una radice di un polinomio. Un polinomio ammette al
massimo un numero di radici pari al suo grado (contando ciascuna radice con
la sua molteplicità algebrica). La molteplicità algebrica di un autovalore è la
sua molteplicità algebrica come radice del polinomio caratteristico. La
molteplicità geometrica di un autovalore non supera la sua molteplicità
algebrica. Se in ciascun autospazio di un operatore lineare si prendono
autovettori linearmente indipendenti e li si riunisce in un'unica lista di vettori si
ha un insieme di vettori linearmente indipendenti nello spazio vettoriale sul
quale è definito l'operatore. Conseguenza: la somma delle molteplicità
geometriche degli autovalori di un operatore lineare non supera la dimensione
dello spazio vettoriale. La somma delle molteplicità geometriche degli
autovalori di un operatore lineare risulta uguale alla dimensione dello spazio
vettoriale se e solo se l'operatore è diagonalizzabile.
Rappresentazione dei numeri complessi come coppie di numeri reali e quindi
come punti del piano cartesiano, che in questo contesto viene detto "piano di
Argand-Gauss" o semplicemente "piano complesso". In questa
rappresentazione l'insieme dei numeri reali si identifica con l'asse delle ascisse,
il cosiddetto asse reale. Definizione delle operazioni di addizione e
moltiplicazione di numeri complessi e verifica delle usuali proprietà (proprietà
associativa e commutativa dell'addizione, proprietà associativa e commutativa
della moltiplicazione, proprietà distributive, elemento neutro dell'addizione,
opposto di un numero complesso, elemento neutro della moltiplicazione,
determinazione del reciproco di un numero complesso non nullo risolvendo un
sistema di Cramer in due incognite. Le proprietà delle operazioni conferiscono
all'insieme dei numeri complessi la struttura algebrica di campo numerico.
Introduzione dell'unità immaginaria. Rappresentazione di un numero
complesso in forma algebrica come espressione a+ib dove i è l'unità
immaginaria, mentre a e b sono umeri reali (detti parte reale e parte
immaginaria del numero complesso). Il campo dei numeri reali risulta
naturalmente immerso nel campo complesso come insieme dei numeri
complessi con parte immaginaria uguale a zero.

Me 13/12/2017
Espressioni in campo complesso. Il coniugato di un numero complesso. Un
numero complesso coincide con il proprio numero complesso coniugato se e
solo se il numero in questione è un numero reale (cioè un numero complesso
di parte immaginaria uguale a zero). La funzione che ad ogni numero
complesso associa il suo numero complesso coniugato è una funzione biiettiva
che fissa ogni numero reale e conserva le operazioni. Si dice pertanto che
questa funzione è un automorfismo del campo complesso (si parla di
automorfismo "coniugio"). Il modulo di un numero complesso. Il prodotto di un
numero complesso con il suo numero complesso coniugato è uguale al
quadrato del modulo. Il modulo di un prodotto di numeri complessi è uguale al
prodotto dei rispettivi moduli. Il modulo di un numero complesso è sempre un
numero reale non negativo e vale zero esattamente quando il numero
complesso di partenza è zero. Disuguaglianza triangolare. Il teroema
fondamentale dell'algebra: il campo dei numeri complessi è algebricamente
chiuso, cioè ogni polinomio di grado positivo a coefficienti complessi ammette
almeno una radice nel campo dei numeri complessi. Pertanto ogni polinomio a
coefficienti complessi si spezza nel prodotto di polinomi di primo grado, quindi
ammette nel campo complesso tante radici quanto è il suo grado (contando
ciascuna radice con la sua molteplicità algebrica). Le radici complesse del
polinomio Xn-w, dove w è un numero complesso fissato, prendono il nome di
radici complesse n-esime di w. In particolare, quando w=1 si chiamano
radici complesse n-esime dell'unità. Se w=0 l'unica radice complessa n-
esima di w è 0 con molteplicità algebrica n. Se w è diverso da zero, il
polinomio Xn-w ammette n radici distinte, ciascuna di molteplicità algebrica
1, le quali si distribuiscono come i vertici di un n-agono regolare sulla
circonferenza di centro l'origine e raggio uguale alla radice n-esima del modulo
di w. Esempio: le radici quarte dell'unità sono 1,-1, i, -i.
Esercizio: il campo complesso può essere rappresentato come insieme delle
matrici d'ordine 2 a coefficienti reali aventi coefficienti uguali sulla diagonale
principale e coefficienti opposti sulla diagonale secondaria. Un operatore
lineare risulta diagonalizzabile se e solo se il suo polinomio caratteristico si
spezza nel proodotto di polinomi di primo grado (a coefficienti nel campo degli
scalari su cui è definito lo spazio vettoriale) e per ciascun autovalore la
molteplicità geometrica risulta uguale alla rispettiva molteplicità algebrica. La
prima condizione da sola non basta a garantire la diagonalizzabilità: esempio di
un operatore lineare dello spazio vettoriale bidimensionale standard sui
complessi che non è diagonalizzabile.

Ve 15/12/2017
Se un autovalore ha molteplicità algebrica uguale a 1 allora anche la sua
molteplicità geometrica risulta uguale a 1, pertanto la condizione riguardante
l'uguaglianza della molteplicità algebrica e geometrica va verificata soltanto per
gli autovalori di molteplicità algebrica maggiore di 1. Un operatore lineare di
uno spazio vettoriale n-dimensionale il cui polinomio caratteristico ammette n
autovalori distinti è diagonalizzabile.
Determinazione della matrice associata a un endomorfismo di C3 rispetto a
basi diverse. Componenti di uno stesso vettore di C3 rispetto a basi diverse.
Calcolo dell'inversa di una matrice d'ordine 3 a coefficienti complessi col
metodo di Gauss-Jordan. Esercizio di diagonalizzazione di un endomorfismo di
R3 determinando una base di autovettori: determinazione degli autovalori e
calcolo per ciascuno di essi della molteplicità algebrica e della molteplicità
geometrica.

Ma 19/12/2017
La matrice associata a un prodotto di funzioni lineari è uguale al prodotto righe
per colonne delle matrici associate alle singole funzioni lineari (nell'ordine
giusto e scegliendo opportunamente le basi). Operatori lineari nilpotenti, indice
di nilpotenza di un operatore lineare nilpotente. Esercizi su operatori lineari di
uno spazio vettoriale di dimensione finita sui reali.
Esercizio di calcolo di espressioni algebriche con numeri complessi. Coordinate
polari nel piano cartesiano. Forma trigonometrica di un numero complesso.
L'argomento di un numero complesso è definito a meno di multipli interi di un
angolo giro. L'argomento principale di un numero complesso. I numeri
complessi di modulo 1 descrivono i punti del piano di Argand-Gauss che
stanno sulla circonferenza di centro l'origine e raggio 1. Ogni numero
complesso non nullo si può esprimere come prodotto del suo modulo per un
numero complesso di modulo 1. Il prodotto di due numeri complessi espressi
in forma trigonometrica è uguale a un numero complesso che ha come modulo
il prodotto dei moduli e come argomento la somma degli argomenti (a meno di
multipli di un angolo giro). Formula di de Moivre per la potenza n-esima di un
numero complesso. Determinazione esplicita delle n radici complesse n-
esime del numero complesso non nullo w.

Me 20/12/2017
Caso particolare: le n radici complesse n-esime dell'unità. Le n radici
complesse n-esime di w si possono ottenere moltiplicando una di esse per le
n radici complesse n-esime dell'unità. Esercizio: le radici complesse cubiche
dell'unità immaginaria. Formula di Eulero. Rappresentazione esponenziale di un
numero complesso di modulo 1 e, più in generale, di un numero complesso
non nullo. Esponenziale con base naturale ed esponente complesso. Se V e
W sono spazi vettoriali sul campo K con dim(V)=n, dim(W)=m allora la
funzione che a ogni F di Hom(V,W) fa corrispndere la matrice associata a F
rispetto alla coppia di basi assegnata, dà luogo a un isomorfismo vettoriale da
Hom(V,W) allo spazio vettoriale delle matrici m x n su K. In particolare
dim(Hom(V,W))=mn. Caso particolare in cui W=K (spazio vettoriale standard
di dimensione 1 su K). Posto V*=Hom(V,K), si dice che V* è il duale
algebrico di V e i suoi elementi si chiamano funzionali o forme lineari di V. Se
dim(V)=n allora dim(V*)=n.
Se V è uno spazio vettoriale n-dimensionale sul campo K e se (e1,e2,...,en)
è una base di V allora per ogni i=1,2,...,n si definisce il funzionale lineare Li
ponendo Li (ej)=1 se i è uguale a j e Li (ej)=0 se i è diverso da j. I
funzionali lineari L1, L2, ..., Ln formano una base dello spazio vettoriale V*, il
duale algebrico di V. La base (L1, L2, ..., Ln) di V* viene chiamata base duale
di (e1,e2,...,en). Ogni funzionale lineare di V è espresso da un opportuno
polinomio di primo grado omogeneo nelle componenti di un vettore di V
rispetto alla base (e1,e2,...,en). I coefficienti di questo polinomio non sono
altro che le componenti del funzionale stesso rispetto alla base duale (L1,
L2, ..., Ln) di V*. Esercizio di determinazione dell'esistenza o meno di una
funzione lineare tra spazi vettoriali assegnati che assuma valori assegnati su
una lista di vettori.

Ve 22/12/2017
Determinazione delle equazioni cartesiane di un sottospazio vettoriale rispetto
a una base fissata andando a definire un endomorfismo dello spazio vettoriale
ambiente di cui il sottospazio vettoriale assegnato risulti il nucleo. Pertanto il
sottospazio vettoriale assegnato può essere pensato come l'insieme delle
soluzioni del sistema omogeneo avente la matrice associata all'operatore come
matrice incompleta.
Una matrice quadrata d'ordine n ha rango n se e solo se 0 non è un
autovalore, quindi una matrice quadrata è invertibile se e solo se 0 non
annulla il suo polinomio caratteristico. Ulteriori esempi di matrici quadrate che
non risultano simili a matrici diagonali, nè sul campo reale nè sul campo
complesso.