Sei sulla pagina 1di 9

1

RETTE E PIANI

 In R2 l'equazione parametrica della retta passante per P(x 0; y0) e di direzione parallela al vettore u = (u1; u2) è

r : x=x 0+ u1 t
{
y= y 0 +u2 t

 In R2 la generica equazione cartesiana di una retta è:


r :ax +by +k =0
 In R3 l'equazione parametrica della retta passante per P(x 0; y0; z0) e di direzione parallela al vettore u=(u1; u2; u3) è:
x=x 0+ u1 t

{
r : y= y 0 +u2 t
z=z 0+ u3 t

 In R3 la generica equazione cartesiana di una retta è data dall'intersezione di due piani:


a1 x +b 1 y +c 1 z =k 1
r:
{ a2 x +b 2 y +c 2 z=k 2

 In R3 l'equazione parametrica del piano passante per P(x 0; y0; z0) e di direzioni parallele ai vettori u=(u1; u2; u3) e
v=(v1; v2; v3) è:
x =x0 +u 1 t+ v 1 s

{
π : y = y 0+ u2 t +v 2 s ∀ s , t ∈ R
z=z 0 +u3 t+ v 3 s

 In R3 la generica equazione cartesiana di un piano è:


π : ax+ by+ cz=k Il vettore (a,b,c) ha direzione perpendicolare al piano
 Due rette r1 e r2 sono parallele se hanno la stessa direzione, ovvero se i rispettivi vettori direzione sono
proporzionali.
 In R3 due rette r1 e r2 sono sghembe se non sono parallele e non si intersecano.
 In R3 due rette r1 e r2 sono complanari se non sono sghembe, ovvero se sono parallele oppure si intersecano.
 Due piani π1 e π2 sono paralleli se non si intersecano. Analogamente due piani π 1 : a1 x +b1 y +c 1 z=k 1 e
π 2 : a2 x +b 2 y +c 2 z =k 2 sono paralleli se i vettori (a1; b1; c1) e (a2; b2;c2) sono proporzionali.
 Una retta r è perpendicolare al piano se π : ax+ by+ cz=k r ha direzione parallela al vettore u=(a; b; c).
 Dati due vettori u = (u1; u2; u3) e v = (v1; v2; v3) di R3 chiamiamo prodotto scalare di u e v il numero:
( u , v )=u ∙ v T =u1 v 1 +u2 v 2 +u3 v 3
 Date due rette r1 parallela a un vettore u e r2 parallela a un vettore v, l'angolo ϑ tra le due rette è dato da:
( u , v ) u ∙ vT
cos ϑ= =
|u|∙|v| |u|∙|v|
Dove |u| è la norma di u, lunghezza di u=√ (u , u)=√ u ∙ uT

GRUPPI, SPAZI E SOTTOSPAZI VETTORIALI

 Gruppo. Un insieme G forma un gruppo rispetto a una sua operazione ° se:


(1) L'operazione gode della proprietà associativa
(2) G è chiuso rispetto a ∘, ovvero
x ∘ y ∈ G ∀ x , y ∈G
(3) Esiste l'elemento neutro e, tale che:
x ∘ e=e ∘ x=x ∀ x ∈ G
(4) Esiste l'inverso (o opposto) di ogni elemento:
∀ x ∈G , ∃ x−1 ∈G t . c . x ∘ x−1=e
2

In notazione additiva:
∀ x ∈G , ∃−x ∈ Gt . c . x ∘ (−x ) =e

 Spazio vettoriale. Uno spazio vettoriale V è un insieme dotato di due operazioni: la somma interna e il prodotto per
scalari, e che gode delle seguenti proprietà:
(1) V è gruppo commutativo rispetto alla somma, quindi:
- V è chiuso rispetto alla somma.
- L'elemento neutro 0 appartiene a V .
- Esiste l'opposto -v di ogni elemento v ∈V .
- La somma è commutativa.

(2) Il prodotto per scalari gode delle seguenti proprietà:


- ( k 1+ k 2 ) u=k 1 u+ k 2 u qualsiasi k i ∈ R e qualsiasi u ∈V
- k ( u+ v )=ku +kv qualsiasi k i ∈ R e qualsiasi u ∈V
- ( k 1 k 2) v=k 1 ( k 2 v ) qualsiasik i ∈ R e qualsiasiu ∈ V
- 1 u=u qualsiasi u ∈V

 Sottospazio vettoriale. Un sottoinsieme S di uno spazio vettoriale V è un sottospazio vettoriale se in S valgono le


seguenti proprietà
(1) Se u , v ∈ S , allora u+ v ∈ S
(2) Se u ∈ S e λ∈ R , allora λu ∈ S
Notiamo che S è uno spazio vettoriale e le proprietà precedenti, unite a quelle ereditate da V, implicano tutte le
proprietà di spazio vettoriale. In particolare S contiene lo 0 e l'opposto di ogni suo elemento.

RIDUZIONE A GRADINI E I SISTEMI LINEARI

A ogni sistema lineare associamo la matrice formata dai coefficienti delle incognite e dei termini noti. I termini noti
vengono separati da un tratteggio.
Utilizzeremo il metodo di Gauss o di Riduzione a gradini. Lo scopo è di ottenere una matrice in cui sotto il primo
termine non nullo di ogni riga si trovano tutti 0. Tale termine è detto pivot.
Il procedimento consiste nel trasformare il sistema in un sistema equivalente (cioè con le stesse soluzioni) mediante le
seguenti operazioni lecite:
- Scambio di due righe della matrice.
- Scambio di due colonne della matrice. In tale caso si scambia la posizione di due incognite. Al termine della
riduzione, quando si ritorna al sistema, è quindi necessario ricordare lo scambio delle incognite.
- Sostituzione di una riga con un suo multiplo non nullo.
- Sostituzione di una riga con la sua somma con un'altra riga.
Le soluzioni di un sistema lineare formano uno spazio vettoriale se e solo se il sistema è omogeneo.

DIPENDENZA E INDIPENDENZA LINEARE

 n vettori v1 , v 2 , … , v n sono detti linearmente indipendenti se:


x 1 v 1+ x 2 v 2 +…+ x n v n=0⟹ x 1=x 2=…=x n=0
In caso contrario sono detti linearmente dipendenti
 Un vettore w è combinazione di n vettori v1 , v 2 , … , v nse esistono x 1 , x 2 , … , x n ∈ R tale che:
x 1 v 1+ x 2 v 2 +…+ x n v n=w
 Se n vettori sono linearmente dipendenti, allora almeno uno è combinazione lineare degli altri.
 Se w è combinazione lineare di v1 , v 2 , … , v n, allora v1 , v 2 , … , v n , wsono linearmente dipendenti.
3

DETERMINANTE E INVERSA DI UNA MATRICE

- Una matrice (quadrata) A è invertibile se esiste una matrice, indicata con A -1, tale che AA-1 =A-1A = I.
Condizione necessaria e sufficiente affinchè una matrice quadrata A sia invertibile è che sia det ⁡( A) ≠ 0

Per calcolare l'inversa di una matrice utilizzeremo due metodi:

- Si affianca alla matrice A la matrice identica e si riduce A a gradini in forma normale (cioè con tutti 1 sulla
diagonale e 0 altrove). La matrice in cui è stata trasformata la matrice identica è l'inversa A -1.
- Si utilizzano le formule:
1 T
A−1= [ A ij ]
det ⁡( A)
Dove Aij = complemento algebrico di a ij=
(−1 )i+ j ∙ det ⁡(matrice ottenuta da A eliminando larigai e la colonna j)
Rango

Per calcolare il rango di una matrice possiamo utilizzare i sottodeterminanti oppure i pivot. Infatti valgono le seguenti
proprietà:
(1) Il rango di una matrice A corrisponde al massimo ordine di una sua sottomatrice (quadrata) con determinante
non nullo.
(2) Il rango di una matrice A corrisponde al numero dei suoi pivot, una volta che A è stata ridotta a gradini.
(3) Il rango di una matrice A è uguale al numero di righe linearmente indipendenti.
(4) Il rango di una matrice A è uguale al numero di colonne linearmente indipendenti.

Talvolta per calcolare il rango di una matrice può essere utile utilizzare un metodo misto di riduzione e di calcolo dei
determinanti. Infatti, sia A una matrice e A’ la matrice ottenuta da A con qualche passo di riduzione a gradini. Allora
r(A) = r(A’). In particolare se A è quadrata il det(A) = 0 se e solo se det(A’) = 0.

Condizione necessaria e sufficiente affinchè una matrice quadrata A sia invertibile è che sia det(A) ≠ 0, ovvero che r(A)
sia massimo.

OSSERVAZIONI:
 Come conseguenza delle proprietà 3 e 4 si ha che se A è una matrice n x m, allora rg(A) min{m; n}
 Per utilizzare la proprietà 1 si può anche ridurre (parzialmente) a gradini la matrice.

RANGO: ROUCHE-CAPELLI, DIMENSIONE E BASI DI SPAZI VETTORIALI.

Un sistema di equazioni Ax = b ammette soluzioni (è compatibile) se e solo se il rango della matrice dei coefficienti A è
uguale al rango della matrice completa A|b:
r ( A )=r ( A|b)
Inoltre:
 Ammette un'unica soluzione se r ( A )=r ( A|b )=numero delle incognite
 Ammette infinite soluzioni se r ( A )=r ( A|b ) <numero delle incognite

Dipendenza lineare:
Sia V uno spazio lineare e v, vi vettori di V
 v è combinazione lineare di v1 , v 2 , … , v nse l’equazione:
x 1 v 1+ x 2 v 2 +…+ x n v n=v
Ammette soluzione.
4

Nel caso particolare in cui V ⊆ R m ,alla precedente equazione possiamo associare la matrice A|b dove le
colonne di A sono date dai vettori v1 , v 2 , … , v n e b è data dal vettore v. In tale caso:
v è combinazionelineare di v 1 , v 2 ,… , v n se r ( A )=r (A∨b)

 v1 , v 2 , … , v nsono linearmente indipendenti se l’equazione:


x 1 v 1+ x 2 v 2 +…+ x n v n=0
Ammette la sola soluzione nulla x 1=x 2=…=x n=0
Nel caso particolare in cui V ⊆ R m ,alla precedente equazione possiamo associare la matrice A|0 dove le
colonne di A sono date dai vettori v1 , v 2 , … , v n. In tal caso
v1 , v 2 , … , v nsono linearmente indipendenti se r(A)=n

BASI E DIMENSIONE

Sia S={v 1 , v 2 , … , v n } un sottoinsieme di V. Diciamo che S è una base di V se:


(1) S è un insieme generatore di V :V =¿ S>, cioè ogni elemento di V si può scrivere come combinazione lineare
degli elementi di S
(2) Gli elementi di S sono linearmente indipendenti
La dimensione di uno spazio vettoriale corrisponde al numero di elementi di una sua base.
Nel caso particolare in cui V = R n sappiamo che S per essere una base deve essere formato da n elementi, ed è
sufficiente verificare che gli n elementi di S siano linearmente indipendenti. Ragionando sui ranghi, n vettori di R n
formano una base di Rn se e solo se la matrice associata ha rango n.

Spazi vettoriali.

 Nel caso particolare di:


V =¿ v 1 , v 2 , … , v n >¿
Se indichiamo con A la matrice formata dai vettori colonna v1 , v 2 , … , v n allora
dim ( V )=r ( A )

B (V )=base diV = {vettori linearmente indipendenti tra v 1 , v 2 , … , v n }


{vettori tra v 1 , v 2 , … , v n corrispondenti ai pivot di A }

 Nel caso particolare di:


V = { soluzioni diun sistema omogeneo }
Se indichiamo con A la matrice associata al sistema e con n il numero delle incognite, allora:
dim ( V )=n−r ( A )

B (V )=base di V ={generatori delle soluzioniuna volta scritte∈forma verticale }

APPLICAZIONI LINEARI

Una applicazione lineare T :V →W è una funzione tra due spazi vettoriali che gode delle seguenti proprietà:
T ( v 1+ v 2 )=T ( v 1 ) +T ( v 2 ) ∀ v 1 , v 2 ∈V
T ( λv )= λT ( v ) ∀ v ∈V , ∀ λ ∈ R
In particolare se B= { v 1 , v 2 , … , v n } è una base di V e v ∈V , allora:
T ( v )=T ( x 1 v 1 + x 2 v 2 +…+ xn v n) =x 1 T ( v 1 ) +…+ x n T ( v n)

A ogni applicazione lineare può essere associata una matrice A=M(T) che ha per colonne le immagini degli elementi
della base di V, espresse rispetto alla base di W. Salvo indicazioni le basi di V e W sono le basi canoniche. Usando la
matrice associata.
T ( v )= A ∙ v ∀ v ∈ V
5

Un applicazione lineare può essere definita tramite:


 La regola:
T : R2 → R 3 tale che T ( x , y )=(x+ y ,2 x , x− y )

 Le immagini di una base


T ( e 1) =( 1,2,1 )
T : R2 → R 3 tale che
T ( e 2 )=( 1,0 ,−1 )

 La matrice associata rispetto a una base:


1 1
2 3
T : R → R tale che lamatrice associata rispetto alla basi canoniche è A= 2 0
1 −1 [ ]
L’Immagine Im(T) è un’applicazione lineare T :V →W è lo spazio generato dalle immagini degli elementi di una base
B={v 1 , v 2 , … , v n } di V
ℑ ( T )= {T ( v )|v ∈V }=¿ T ( v 1 ) , … ,T (v n )>⊆ W
Utilizzando la matrice A=M(T) associata:
 Im(T) = spazio generato dalle colonne di A (Prestare attenzioni se le basi di V e W non sono quelle canoniche)
 B(Im(T)) = f colonne linearmente indipendenti di A g (Prestare attenzioni se le basi di V e W non sono quelle
canoniche).
 dim ( ℑ (T ) )=r ( A )

Il Nucleo N(T) di un’applicazione lineare T :V →W è il sottospazio di V formato dagli elementi la cui immagine è lo 0
N ( T ) ={ v ∈V |T ( v )=0 }⊆V
Utilizzando la matrice A associata:
 N(T) = {soluzioni del sistema omogeneo associato a A} (Prestare attenzione se le basi di U e di V non sono
quelle canoniche).
 dim ( N ( T )) =n−r ( A ) ,dove n=dim ( V ) =numero delle incognite del sistema lineare
 Il teorema di Nullità più rango afferma che se T :V →W allora:
dim ( N ( T )) + dim ( ℑ ( T ) )=n=dim ( V )
 Una applicazione è detta Iniettiva se dim ( N ( T )) =0 , cioè se N ( T )=0
 Una applicazione è detta Suriettiva se dim ( ℑ (T ) )=dim (W ) ,cioè se ℑ ( T )=W
 Una applicazione è detta Biettiva se è sia iniettiva che suriettiva. Un’applicazione è invertibile se è biiettiva.

Matrici di transizione Sia V uno spazio vettoriale di dimensione n e siano B={v 1 , v 2 , … , v n } e


B' ={v ' 1 , v ' 2 ,… , v ' n } due basi di V . Ogni vettore w di V si può scrivere come combinazione lineare degli elementi
delle due basi:
w=x 1 v 1+ …+ x n v n=x ' 1 v' 1 +…+ x ' n v ' n ⟹
w=( x 1 , … , x n ) B componentidi w rispetto a B
w=( x ' 1 , … , x ' n ) B ' componenti di w rispetto a B '

 Sia T : R n → R n l’applicazione tale che T ( x 1 , … , x n ) =( x ' 1 , … , x ' n ) . La matrice associata a T è detta matrice di
transizione da B a B’, indicata con M BB ' . Tale matrice ha per colonne i vettori di B espressi rispetto a B’:
'
B T
( x ' 1 ,… , x ' n )=M B ( x 1 ,… , x n )
 Sia T : R n → R n l’applicazione tale che T ( x ' 1 , … , x ' n ) =( x 1 , … , x n ) . La matrice associata a T è detta matrice di
transizione da B’ a B, indicata con M BB ' . Tale matrice ha per colonne i vettori di B’ espressi rispetto a B:
B T
( x 1 ,… , x n )=M B ' ( x 1 ' ,… , x ' n )
OSSERVAZIONI
6
'
B B
 Le matrici M B e M B ' sono una l’inversa dell’altra
 Se T :V →V è un endomorfismo e B e B’ sono due basi di V allora:
M B (T )=P−1 ∙ M B ( T ) ∙ P con P= M BB '
'

DIAGONALIZZAZIONE DI MATRICI E APPLICAZIONI LINEARI

Sia T : R n → R n una applicazione lineare (endomorfismo) e M la matrice associata rispetto a una base B di R n.
Parleremo quindi indifferentemente di T e M.

Il Polinomio caratteristico di M è il polinomio


p M ( λ )=det ⁡( M − λId)
Notiamo che p M ( λ ) è un polinomio di grado n nell’incognita λ

Un Autovalore di M è un numero λ per cui esiste un vettore v ∈ R n non nullo tale che:
Mv =λv
OSSERVAZIONI:
 Se λ è un autovalore di M allora per qualche v ≠ 0 :
Mv=λv ⇒ ( M − λId ) v=0 ⇒ det ( M −λId ) =0
Quindi gli autovalori di M sono gli zeri del polinomio caratteristico, ovvero si determinano risolvendo
det ( M −λId )=0
 La molteplicità di λ come zero del polinomio caratteristico è detta molteplicità algebrica dell'autovalore λ .

Un Autovettore relativo a un autovalore λ è un vettore v (e sicuramente ne esistono non nulli) tale che
Mv =λv ⇒ ( M − λId ) v=0
Quindi v è soluzione del sistema omogeneo associato a M −λId

OSSERVAZIONI:
 Chiamiamo Molteplicità geometrica di λ la dimensione di E( λ ).
 Gli autovettori relativi all'autovalore λ = 0 formano il nucleo di M, ovvero le soluzioni del sistema omogeneo
associato a M.
 Per quanto riguarda la dimensione di E( λ ) abbiamo che:
1 ≤dim ( E ( λ ) ) ≤ molteplicità algebrica di λ
In particolare se un autovalore è singolo, allora il relativo autospazio ha sicuramente dimensione 1.
 Autovettori di autospazi distiniti sono linearmente indipendenti.
 Poiché gli endomorfismi sono applicazioni di uno spazio in se stesso, la base dello spazio di arrivo e di partenza
è sempre la stessa.

Diagonalizzabilità:

Una matrice M, n x n, è diagonalizzabile se è simile a una matrice diagonale D, ovvero esiste una matrice P, detta
matrice diagonalizzante, tale che P−1 MP=D è una matrice diagonale.

OSSERVAZIONI:
 Poiche P−1 MP=D , le matrici M e D sono simili
 La matrice diagonalizzante P ha per colonne autovettori linearmente indipendenti di M.
 P−1 MP=D ha sulla diagonale gli autovalori di M
7

 Una matrice M, n x n, è Diagonalizzabile se la somma delle molteplicità geometriche dei suoi autovalori è n,
ovvero se la somma delle dimensioni dei suoi autospazi è n, ovvero se ha n autovettori linearmente
indipendenti.
 Condizione necessaria perché una matrice sia diagonalizzabile è che la molteplicità algebrica e geometrica dei
suoi autovalori coincidano.
 Se M ha n autovalori distinti allora è sicuramente diagonalizzabile (infatti ha sicuramente n autospazi di
dimensione 1).
 Se una matrice M è diagonalizzabile allora esiste una base di R n formata da autovettori di M. La
diagonalizzazione sottintende infatti un cambiamento di base in R n.
 Due matrici diagonalizzabili sono associate allo stesso endomorfismo (rispetto a basi differenti) se sono simili
alla stessa matrice diagonale (ovvero hanno gli stessi autovalori). Analogamente se solamente una delle due
matrici è diagonalizzabile allora non possono essere associate allo stesso endomorfismo.
 Le matrici e gli endomorfismi simmetrici godono di particolari proprietà.

PRODOTTO SCALARE, ORTOGONALITA’ E BASI ORTONORMALI

Prodotto Scalare: Sia v uno spazio vettoriale. Un prodotto scalare di V è un applicazione


( ∙ ,∙ ) :V ×V → R
(u , v )→(u , v)
Che gode delle seguenti proprietà_
 Proprietà simmetrica:( u , v )=( v , u) ∀u,v∈ R
 Biliniearità: ( αu + βv , w )=α ( u , w ) + β ( v , w ) ∀ u , v ∈ R , ∀ α , β ∈ R
 Definita positiva: ( u , u ) ≥ 0 ∀ u ∈V e ( u , u )=0 se u=0
(Notiamo che si usa la stessa notazione per la coppia (u; v) e per il loro prodotto scalare (u; v), ma il primo è una coppia
di vettori mentre il secondo è un numero)

Il prodotto scalare canonico di Rn (che noi considereremo salvo diversa indicazione)è: dati
u=(x i)i=1 , …, n e v=( y i)i=1 , …, n:
n
( u , v )=∑ xi v i =u∙ vT
i=1

Norma o lunghezza: definiamo norma o lunghezza di un vettore v il numero:


‖v‖= √( v , v )
2
Notiamo che: ( v , v ) =‖v‖

Angolo tra due vettori. Dati due vettori u , v ∈V e indicato con ϑ l'angolo convesso tra essi, si ha
(u , v)
cosϑ=
‖u‖ ∙‖v‖
Ortogonalità. Due vettori u , v ∈V sono ortogonali se ( u , v )=0.

Proiezione ortogonale su un vettore. Dati due vettori u , v ∈V si chiama proiezione ortogonale di u su v il vettore

(u , v ) (u , v)
pr v (u )= 2
∙ v= ∙v
‖v‖ (v , v )

 pr v (u ) è un vettore parallelo a v
8

 u−pr v ( u ) è un vettore ortogonale a v


 u=( u− pr v ( u ) ) + pr v ( u ) , ovvero ogni vettore u può sempre essere scritto come somma di un vettore ortogonale
e di uno parallelo ad un altro vettore v.

Complemento ortogonale: Dato uno spazio vettoriale W ⊆ Rn, chiamiamo complemento ortogonale di W lo spazio
vettoriale
W ⊥ ={u ∈ R n∨( u , w ) =0 ∀ w ∈W }
W ⊥è uno spazio vettoriale

Insieme ortonormale è un insieme { v 1 , v 2 , … , v n } di vettori:


 A due a due ortogonali: ( v i , v j )=0 per i≠ j=1, … , n
 Di norma 1 :‖vi‖=1= ( v i , v i ) per i=1 , … , n

RETTE E PIANI CON LE MATRICI E I DETERMINANTI

 Tre punti Pi (x i ; y i ) del piano sono allineati se e solo se:


x1 y1 1

[ ]
det x 2
x3
y 2 1 =0
y3 1

 Quattro punti Pi (x i ; y i , zi ) dello spazio sono complanari se e solo se


x1 y1 z1 1

[
x
det 2
x3
x4

y2
y3
y4
z2
z3
z4
1
1
1
]=0

L'equazione cartesiana della retta passante per due punti (distinti) del piano P1 (x 1 ; y 1 ) e P2 (x 2 ; y 2 ) si può
calcolare direttamente imponendo
x y 1

[
det x 1
x2

y 1 1 =0
y2 1 ]
L'equazione cartesiana del piano passante per tre punti (non allineati) P1 ( x i ; y i ; zi ) e si può calcolare
direttamente imponendo
x y z 1
det
[
x1
x2
x3

y1 z1
y2 z2
y3 z3
1
1
1]=0

Tre punti Pi (x i ; y i , zi ) sono allineati se e solo se:


x1 y1 z1 1


[
r x2
x3
y2 z2 1 ≤ 2
y3 z3 1 ]
L'equazione cartesiana della retta passante per due punti (distinti) dello spazio Pi (x i , y i , z i ) si può calcolare
direttamente imponendo:
9

x y z 1

[
r x1
x2
y 1 z 1 1 =2
y2 z2 1 ]
Questo, per Kronecker, implica che due opportune sottomatrici 3 x 3 abbiano determinante nullo. Le due
equazioni in x; y; z così ottenute costituiscono l'equazione cartesiana della retta.
3
 Dati due vettori u=( u1 ,u 2 , u3 ) e v=( v 1 , v 2 , v 3 ) di R chiamiamo prodotto vettoriale di u e v il vettore:
i⃗ ⃗j ⃗k

[
u × v=( u2 v 3 −u3 v 2 ,u3 v 1−u 1 v 3 , u1 v 2−u 2 v 1 ) =det u1 u 2 u3
v1 v2 v3 ]
 L’area di un parallelogramma in R2, di lati u=( u1 ,u 2) , v=( v 1 , v 2) è:
u1 u 2
A ( parallelogramma )=|u1 v 2−u 2 v1|= det
| [ ]| u2 v 2

 L'Area di un parallelogramma in R3, di lati u=( u1 ,u 2 , u3 ) , v=(v1 , v 2 , v 3) è data dalla lunghezza (norma)
|u × v| del vettore u × v prodotto vettoriale di u e v:
A ( parallelogramma )=|u × v|

 Il volume del parallelepipedo di lati u=( u1 ,u 2 , u3 ) , v=(v1 , v 2 , v 3) e w=( w1 , w2 , w3 )è uguale al valore


assoluto del prodotto misto (u , v × w):
u1 u2 u3

|[
Volume ( parallelepipedo )=|(u , v × w)|= det v 1 v 2 v 3
w1 w 2 w 3 ]|