Esplora E-book
Categorie
Esplora Audiolibri
Categorie
Esplora Riviste
Categorie
Esplora Documenti
Categorie
Prof. G. Fiore
1
1 Spazi vettoriali
1.1 Definizione e prime proprietá
R ≡ campo dei numeri reali. Sia dato un insieme E con
1. legge di composiz. interna + (somma) (x, y) ∈ E × E → x + y ∈ E
1.2 Esempi
1. Spazio vettori del piano aventi la stessa origine O (Fig. 1 sinistra).
5. Spazio delle matrici n × m di numeri reali (servirá per spazio dei tensori doppi).
2
Figure 1:
Esempio 1.: da prop. geometria euclidea. Def. di +: con regola parallelogramma (Fig.
1 destra) ⇒ (1.1) ok, o con regola della poligonale (Fig. 2 in alto, piú comoda per sommare
piú vettori). (1.2), (1.3), (1.4).
Figure 2:
Esempio 2: come in 1., ma l’origine e’ variabile, e sono considerati equivalenti vettori che
trasportati parallelamente fino a far coincidere le origini coincidono
Esempio 3: simile a 1., 2
3
Esempi 4, 5: la somma é definita da x + y ≡ (x1 + y 1 , ..., xn + y n ); il prodotto per a ∈ R
é definito da ax = (ax1 , ..., axn )
Esempio 6: {pn (t) = x0 + x1 t + x2 t2 + ...xn tn }; somma di polinomi di grado n e loro
prodotto per un numero
Esempio 7: {p(t) = x0 + x1 t + x2 t2 + ...xn tn + ...}; somma di polinomi di grado arbitrario
e loro prodotto per un numero.
(si legge x scalare y). É facile verificare che gode delle seguenti proprietá:
x·y =y·x commutativitá (simmetria) (2.11)
x · (y + z) = x · y + x · z distributivitá di · rispetto a + in E
(linearitá) (2.12)
(a x) · y = a (x · y) = x · (a y)
x · x = 0 ⇔ x = 0, x 6= 0 ⇒ x · x > 0 positivitá (2.13)
[v. fig. 3 centro per la dimostrazione della (2.12)1 ], e perció diremo che E2 é euclideo. Piú
in generale,
4
Figure 3:
(x, y) ∈ E × E → x · y ∈ R,
che diremo prodotto scalare, tale che le proprietá (2.11-2.13) siano soddisfatte.
Anche lo spazio dei vettori (liberi o con origine prefissata) dello spazio tridimensionale é
euclideo: basta che definiamo il prodotto scalare di due vettori come sopra (la verifica si
riduce al caso precedente, basta considerare il piano contenente x, y).
√
kxk := x · x é detta lunghezza, modulo o norma di x. Lo indicheremo anche con x.
Negli esempi 1., 2., 3. il loro significato geometrico é quello di proiezioni rispettivamente
parallelamente e perpendicolarmente agli assi(v. Fig. 3 destra)
Il prodotto scalare è completamente determinato dalle componenti controvarianti e co-
varianti, o dalle prime e dai prodotti scalari tra i vettori della base:
n
X n
X n
X
i i
x·y = x yi = xi y = xi y j (ei · ej ).
i=1 i=1 i,j=1
Definizione 6 Una base {e1 , ..., en } di uno spazio euclideo si dice ortonormale se
0 se i 6= j
ei · ej = Iij := . (2.15)
1 se i = j
Con I abbiamo denotato la matrice identitá, con Iij il suo elemento alla i-esima riga e j-esima
colonna (quest’ultimo si indica spesso anche con il simbolo δij ). Si può sempre costruire una
base ortonormale (es. col metodo di ortonormalizzazione di Schmidt).
5
Proposizione 1 In una base ortonormale xi = xi ∀x ∈ E. Conseguentemente,
n
X n
X
x= (x · ei )ei , x·y = xi y i . (2.16)
i=1 i=1
Solo in questo caso quindi mettere un indice su o giú non fa differenza. Noi lavoreremo quasi
n
esclusivamente con basi ortonormali. Scegliendo y = x troviamo x2 = x · x = (xi )2 , cioé
P
i=1
il teorema di Pitagora.
n
Possiamo definire il prodotto x·y in Rn in modo che coincida con x·y, cioé x·y = xi y i .
P
i=1
3 Calcolo vettoriale in E3
Una base (e1 , e2 , e3 ) di E3 (terna) si dice levogira se una vite k e3 si sposta nel semispazio verso
cui punta e3 se ruota nel senso che va da e1 a e2 , destrogira se si sposta nel semispazio opposto.
Equivalentemente, (e1 , e2 , e3 ) si dice levogira se posso orientare come questi rispettivamente
pollice, indice e medio della mano destra; destrogira se questo posso farlo usando la mano
sinistra.
Nota: data (e1 , e2 , e3 ) levogira, (ei , ej , ek ) è levogira se (ijk) é una permutazione ciclica di
(123), destrogira altrimenti.
Ricordiamo la def. del prodotto scalare: u · v = kuk kvk cos ϑ. Definiamo ora il prodotto
vettoriale: u × v é un vettore determinato (v. Fig. 4 sinistra) da:
1. direzione ⊥ u, v;
2. modulo ku × vk = kuk kvk sin ϑ (area del parallelogramma di lati u, v);
3. verso tale che (u, v, u × v) é levogira.
Proprietá:
u × v = 0 se u k v ⇐ 2. (3.17)
u × v = −v × u ⇐ 3. (3.18)
(λu) × v = λu × v ⇐ 2., 3. (3.19)
(u + v) × w = u × w + v × w senza dim. (3.20)
ei ×ei = 0, e1 ×e2 = e3 = −e2 ×e1 , e2 ×e3 = e1 = −e3 ×e2 , e3 ×e1 = e2 = −e1 ×e3
(3.22)
6
Figure 4:
3
ui v i )
P
e (oltre a u · v =
i=1
e1 e2 e3 t1 t2 t3
u × v = det u1 u2 u3 t · (u × v) = det u1 u2 u3 (3.23)
v1 v2 v3 v1 v2 v3
La seconda si ottiene facilmente dalla prima senza rifare i calcoli, ma osservando che t · z =
3 3
ti z i si ottiene dalla decomposizione z = ei z i sostituendo ei 7→ ti , ed applicando questa
P P
i=1 i=1
regola a z = u×v. Anche la (3.21) si può dimostrare con un calcolo esplicito nelle componenti.
7
Figure 5:
8
5 Vettori applicati nello spazio fisico E3
Se fissiamo in un punto P ∈ E3 l’origine di v otteniamo un vettore applicato (P, v) a P .
M Q := (P − Q) × v
é il suo momento (polare) rispetto al polo Q (v. Fig. 6 sinistra). Ovviamente M Q ⊥piano
contenente P, Q, v, e kM Q k = hv, ove h ≡distanza di Q dalla retta di applicazione di (P, v)
(il braccio).
Figure 6:
Calcoliamo: M Q − M Q0 = (P − Q) × v − (P − Q0 ) × v = (P − Q − P + Q0 ) × v = (Q0 − Q) × v
(5.24)
Dim: Q, Q0 ∈ r implica (Q−Q0 ) k e. Quindi per (5.24) M Q ·e−M Q0 ·e = [(Q0 −Q)×v]·e = [e×(Q0 −Q)]·v = 0.
9
Teorema 2 (di Varignon). Se le rette di applicazione di tutti i vettori applicati si incontrano
in uno stesso punto P (v. Fig. 6 destra), allora il momento risultante é uguale al momento
della risultante applicata a P :
M Q = (P − Q) × R. (5.26)
M P = M Q + (Q − P ) × R. (5.27)
n
P n
P
Dim: M P − M Q = (Pi − P − Pi + Q) × v i = (Q − P ) × v i = (Q − P ) × R.
i=1 i=1
M = (P1 − P2 ) × v. (5.28)
R = R0 , M Q = M 0Q. (5.30)
R = 0, M Q = 0. (5.31)
10
Figure 7:
Apprezzeremo piú avanti l’importanza di queste nozioni: nelle equazioni cardinali della
dinamica, che in particolare determinano il moto di un solido (v. fig. 8 sinistra), compare
solo la risultante R ed il momento risultante M Q delle forze esterne agenti su esso, quindi
piú sistemi di forze equivalenti nel senso (5.30) ne determinano lo stesso moto, in particolare
ne determinano la quiete se vale (5.31); la (5.31) é condizione necessaria per l’equilibrio
di un sistema S di uno o piú corpi e sufficiente per l’equilibrio di un solido. Esempio di
applicazione: il Principio della leva di Archimede (v Fig. 8 destra). L’asta (supposta per
semplicitá di massa trascurabile) appoggiata ad un cuneo nel punto O e ai cui estremi P1 , P2
sono appoggiati i pesi F 1 , F 2 é in equilibrio se
R=0 ⇔ F = −F 1 − F 2 , MO = 0 ⇔ h1 F1 = h2 F2 .
La prima condizione é sempre soddisfatta, perché il cuneo (=vincolo rigido) puó esercitare
qualunque forza, anche la F = −F 1 − F 2 . La seconda solo se h2 = lF1 /(F1 + F2 ) (ho
utilizzato che i bracci soddisfano anche h1 + h2 = l = lunghezza dell’asta). Quindi posso
equilibrare anche un peso molto grande con uno molto piccolo prendendo h2 quasi uguale a
l, cioé h1 molto piccolo.
Figure 8:
11
Proposizione 3 Dato Σ, se sposto il punto di applicazione Pi di un qualsiasi vettore appli-
cato (Pi , v i ) parallelamente a v i ottengo un sistema Σ0 equivalente: Σ0 ∼ Σ.
Se le rette di applicazione di tutti i vettori si incontrano in P , allora Σ ∼ {(P, R)}.
Proposizione 4
4. Se invece Σ ∼ (A, R), aggiungendo a Σ un vettore (A0 , −R), con A0 un punto delle
retta k R e passante per A, ottengo un sistema equivalente a zero.
Dim: Infatti R0 = R + v − v = R, M 0P = (P − P ) × v + M P = M P .
Scegliendo P1 = P e ponendo u := R + v troviamo il
Corollario 2 Σ ∼ {(P, u), (P2 , −v)}. Cioé ogni sistema é equivalente a due vettori applicati,
di cui uno ad un punto P arbitrario.
Figure 9:
12
5.2 Campi vettoriali
Una funzione f che ad ogni punto P dello spazio fisico fisico E3 associa un numero reale f (P )
si dice un campo scalare. Un esempio di campo scalare é la pressione [la pressione f (P ) in
P si misura ponendo un barometro nel punto P ]. Poiché, fissato un sistema di riferimento,
il generico punto P è individuato dalla terna delle sue coordinate (x, y, z), f si puó vedere
anche come una funzione f (x, y, z) di queste tre variabili. Una funzione v che ad ogni punto
P dello spazio associa un vettore v(P ) si dice un campo vettoriale. Un esempio di campo
vettoriale é la densitá di forza peso in un corpo esteso.
Un sistema di n vettori applicati Σ si puó vedere come un campo vettoriale discreto, cioé
che associa solo agli n punti P = Pi dei vettori v(Pi ) = v i 6= 0, mentre v(P ) = 0 se P 6= Pi .
Invece in generale in un campo vettoriale continuo v(P ) 6= 0 per infiniti punti P .
La risultante e il momento risultante di un campo vettoriale v(P ) continuo si introducono
sostituendo alle sommatorie degli integrali sul supporto V di v(P ) (v. Fig. 9):
Z Z
R := dV v(P ) M Q := dV (P − Q) × v(P ) (5.32)
V V
Queste definizioni si possono vedere come limite delle (5.25): si divide il supporto di v(P )
[la regione V in cui v(P ) 6= 0] in tanti volumetti di volume dV ; detto n il loro numero, li
enumeriamo con i = 1, 2, ..., n, indichiamo con Pi i loro centri, poniamo v i ≡ v(Pi )dV . Nel
limite in cui dV → 0, n → ∞ e le somme (5.25) diventano gli integrali (5.32). I teoremi
dell’analisi assicurano l’esistenza di questo limite e la loro indipendenza dalla particolare
partizione di V , sotto opportune ipotesi di regolaritá di v(P ).
I risultati e le definizioni precedenti e seguenti continuano a valere, perché si ottengono
da quelli relativi al caso di sistemi Σ finiti facendo questo limite di entrambi i membri.
Cosı̀ sarà anche per gli altri risultati. Perció ci limiteremo a dimostrarli per Σ finiti.
T := R · M P (5.33)
non varia al variare del polo P , perció viene detto invariante scalare del campo vettoriale Σ.
Se R 6= 0 l’invarianza di T equivale a dire che nella decomposizione di M P in un compo-
nente L k R ed uno M ⊥ P ⊥ R (v. Fig. 10 sinistra) L è indipendente da P :
MP = L + M⊥
P. (5.34)
13
Figure 10:
è una retta k R detta asse centrale (v. Fig. 10 destra). Per ogni punto P ∈ E3 risulta
M P = L + (A − P ) × R, A ∈ A. (5.36)
A è anche il luogo dei punti A ∈ E3 in cui M A k R oppure M A = 0, ed il luogo dei punti
A ∈ E3 in cui M A è minimo.
Dim: Come punto P nella (5.27) prendiamo un punto A ∈ A: troviamo l’equazione vettoriale
L = M A = M Q + (Q − A) × R (5.37)
nell’incognita A. Per cercarne le soluzioni scegliamo una terna ortonormale (O, x, y, z) con ~z k R. Allora
M A = L ∝ ~z equivale a Lx = 0 = Ly . Indicando con (xA , yA , zA ) e (xQ , yQ , zQ ) le coordinate di A, Q
rispettivamente, la (5.37) diventa l’equazione vettoriale
i j k
L = M Q + det
Q(x −x A ) (y Q −yA ) (zQ −zA
,
)
0 0 Rz
14
Per dimostrare le implicazioni ⇒ basta usare la proposizione 5, scegliendo P = A nel primo
caso. Si verifica T = 0 in particolare per i segg. tre casi: 1. Σ soddisfa le ipotesi del teorema
di Varignon; 2. Σ é un sistema di vettori piano (sez. 5.4); 3. Σ é un sistema di vettori
paralleli (sez. 5.5).
si dice piano se esiste un piano π tale che Pi ∈ π e v i k π per tutti gli i = 1, 2, ..., n (v. figura
11 sinistra). In questo caso evidentemente R k π, mentre per Q ∈ π si ha (Pi − Q) k π, da
cui (Pi − Q) × v i ⊥ π e M Q ⊥ π. Quindi anche in questo caso T = 0, e vale l’implicazione
(5.38).
Se R 6= 0 l’asse centrale sará quindi caratterizzato dalla condizione M A = 0. Scegliendo
una terna di riferimento O~x~y~z in modo che il piano Oxy coincida con π, e quindi M O k k,
la (5.37) con Q = O scomposta nelle tre componenti dá
−yA −zA
x: 0= y = zA Ry
R 0
i j k
z
−xA −zA
0 = MO k+det
−xA −yA −zA
⇒
y : 0 = − x = −zA Rx
Rx Ry R 0
0
z
−xA −yA
z : 0 = MO + x
= M z + y A R x − xA R y .
R Ry O
Le prime due equazioni danno zA = 0, cioè A è contenuta nel piano π ≡ Oxy; la terza dice
che è la retta di equazione
Dato un sistema piano di due vettori applicati Σ := {(P1 , v 1 ), (P2 , v 2 )} con risultante
nonnulla R, è semplice determinare graficamente un vettore applicato (A, v) equivalente e
l’asse centrale. Chiaramente v = R e A sará la retta k R passante per A. Se v 1 , v 2 sono
paralleli, basterá prendere A = C determinato come alla sottosezione 5.5; se v 1 , v 2 non sono
paralleli, basterá prendere A come intersezione delle rette di applicazione di (P1 , v 1 ), (P2 , v 2 ),
come mostrato in Fig. 11 destra, per il teorema di Varignon.
Figure 11:
15
Dato un sistema piano di n > 2 vettori applicati con risultante R nonnulla, reiterando il
metodo precedente si determina graficamente un vettore applicato (A, v) equivalente e l’asse
centrale (di nuovo v = R e A sará la retta k R passante per A). Esiste anche un metodo
grafico alternativo molto potente, quello del cosiddetto “poligono funicolare”, che permette
di ricavare in un sol colpo i risultati precedenti per un sistema piano di n vettori applicati,
qualsiasi sia n; noi peró non avremo il tempo di trattarlo.
è indipendente dalla scelta di Q, e viene detto centro del campo Σ di vettori paralleli
Dim. Chiamiamo C 0 il punto individuato da (5.42) con la scelta di un altro punto Q0 al posto di Q:
n
C 0 − Q0 := Λ1 λi (Pi − Q0 ). Di qui troviamo che C 0 − C = 0, e quindi C 0 = C, perché
P
i=1
n n
X λi X λi
C0 − C = (C 0 − Q0 ) + (Q0 − Q) + (Q − C) = (Pi − Q0 ) − (Pi − Q) + (Q0 − Q)
i=1
Λ i=1
Λ
n n
X λi X λi
= [(Pi −Q0 ) − (Pi −Q)] + (Q0 − Q) = (Q − Q0 ) + (Q0 − Q) = 0.
i=1
Λ i=1
Λ
L’utilitá di questa definizione é che (5.41) assume una forma analoga al teorema di
Varignon:
M Q = (C − Q) × R. (5.43)
Inoltre Σ ∼ {(C, R)}; quindi C ∈ A. A è quindi la retta k R k v passante per C.
Il campo dei vettori peso di un sistema S di punti materiali é l’esempio piú importante di
campo di vettori paralleli con R 6= 0: come v possiamo prendere l’accelerazione di gravitá g,
come λi la massa mi del punto materiale di posizione Pi . In questo caso C si dice baricentro
di S, e lo indicheremo con G:
n n
X mi X
G − Q := (Pi − Q), m := mi (5.44)
i=1
m i=1
16
questa forma ci dice che il vettore posizione di G (rispetto ad Q) é la media pesata dei vettori
posizione dei punti Pi del sistema, con pesi1 mi /m. Analogamente, se Q é l’origine di una
terna di riferimento le tre coordinate di G sono le medie pesate delle coordinate dei punti:
n n n
X mi X mi X mi
xG = xi , yG = yi , zG = zi . (5.45)
i=1
m i=1
m i=1
m
17
Figure 12:
2. piú precisamente, nel punto C ad una distanza da P1 data dalla (5.50)2 , o da (5.51)2 .
Prendendo Q ≡ P1 trovo invece
λ2 λ2
C − P1 = (P2 − P1 ), ⇒ kC − P1 k = kP2 − P1 k. (5.51)
Λ Λ
Vale anche la relazione con 1, 2 scambiati.
Graficamente C si puó determinare in entrambi i casi come intersezione delle due rette
passanti rispettivamente per i punti di applicazione e gli estremi dei due vettori appli-
cati (P1 , −λ2 v), (P2 , λ1 v), come si vede sfruttando la proporzionalitá delle lunghezze di lati
omologhi in triangoli simili (v. Fig. 13). Trovo A come la rettak v passante per C.
Posso anche determinare prima A e poi C con il seguente metodo grafico alternativo: ag-
giungendo a Σ una coppia di braccio nullo ottengo un sistema Σ0 ∼ Σ. Scelgo una coppia del
tipo {(P1 , u), (P2 , −u)} con u k (P1 −P2 ), v. figura 14. Detto Σ00 := {(P1 , v 1 + u), (P2 , v 2 − u),
applicando tre volte il teorema di Varignon trovo Σ ∼ Σ0 ∼ Σ00 ∼ Σ000 := {(A, R)}, ove A
é l’intersezione delle rette di applicazione dei vettori di Σ00 . Dopodiché trovo A come la
rettak v passante per A, C come intersezione di A con la retta passante per P1 , P2 . Si noti
che allungando o accorciando u il punto A cambia rimanendo su A.
Applicando n−1 volte i procedimenti grafici precedenti posso determinare graficamente
il centro di un sistema di n vettori. Se essi giacciono in uno stesso piano questo si potrebbe
fare piú rapidamente col metodo del poligono funicolare, giá menzionato.
5.6 Esercizi
1. Determinare graficamente e/o analiticamente risultante, momento risultante rispetto
all’origine, invariante scalare, asse centrale del sistema piano
ove P1 ≡ O(0, 0, 0), P2 (2, 0, 0), P3 (−1, −1, 0) e v 1 ≡ (1, −2, 0), v 2 ≡ (0, −1, 0), v 3 ≡
(2, 0, 0) in un’opportuna terna di riferimento (O, i, j, k) prefissata. Esiste un sistema
equivalente costituito da un unico vettore applicato?
18
Figure 13:
ove P1 (1, 0, 0), P2 (3, 1, 0), e v 1 ≡ (0, 2, 0), v 2 ≡ (0, −1, 0) in un’opportuna terna di
riferimento (O, i, j, k) prefissata. Aggiungere un ulteriore vettore applicato in modo da
avere un sistema equivalente a zero.
ove P1 ≡ O(0, 0, 0), P2 (1, 0, 0), P3 (−1, −1, 0) e v 1 ≡ (−2, 1, 0), v 2 ≡ (0, −1, 0), v 3 ≡
(2, 0, 0) in un’opportuna terna di riferimento (O, i, j, k) prefissata. Esistono il centro e
l’asse centrale? Trovare una coppia equivalente a Σ.
ove P1 (−2, 0, 0), P2 (1, 1, 0), P3 (1, −1, 0) e v 1 ≡ (−2, 0, 0), v 2 ≡ (1, 1, 0), v 3 ≡ (1, −1, 0)
in un’opportuna terna di riferimento (O, i, j, k) prefissata, é equivalente a zero.
ove P1 (0, 0, 0), P2 (2, 0, 0), P3 (−1, −1, 0), P4 (0, 1, 2) e v 1 ≡ (−2, 1, 0), v 2 ≡ (0, −1, 0),
v 3 ≡ (2, 0, 0), v 4 ≡ (0, 1, 0) in un’opportuna terna di riferimento (O, i, j, k) prefissata.
Trovare una coppia {(Q1 , u), (Q2 , −u)} tale che
19
Figure 14:
Ma l’espressione in parentesi quadra non é altro che il vettore posizione G00−Q del baricentro
di S 00 . Giungiamo quindi alla
4. Proprietá distributiva: Il baricentro di S non cambia se “concentro” una parte
S 00 nel suo baricentro G00 (o piú parti nei loro baricentri), cioé se sostituisco S 00 con una
particella di massa m00 in G00 :
k
X mi m00 00
G−Q = m (Pi − Q) + (G − Q) (5.52)
i=1
m m
m0 0 m00 00
= (G − Q) + (G − Q); (5.53)
m m
l’ultima espressione si ottiene applicando la proprietá anche ad S 0 , e riduce la determinazione
di G a quella del baricentro di 2 particelle.
Non necessariamente G coinciderá con un punto di S, anche se questo é continuo (ad
esempio, il baricentro G di un anello é al suo centro, che non appartiene all’anello. Tuttavia,
essendo G − Q la media pesata dei vettori posizione Pi − Q, ci aspettiamo che G si trovi
grosso modo ”in mezzo” ai punti del sistema S (non lontano da essi). Questa attesa si puó
20
Figure 15:
Figure 16:
21
Figure 17:
Figure 18:
precisare con la proprietá seguente. Ricordiamo prima che una regione C si dice convessa se,
qualsiasi siano P, P 0 ∈ C, il segmento P P 0 é incluso in C, v. figura 16.
5. Proprietá di convessitá: Il baricentro di S si trova in ogni regione convessa V (in
particolare, la piu’ piccola V 0 ) che contiene tutti i punti di S, v. figura 17 sinistra.
La dimostrazione é iterativa; per la proprietá distributiva posso: 1. concentrare P1 , P2 nel loro baricentro
G1 ∈ P1 P2 ⊂ V ; concentrare G1 , P3 - o equivalentemente P1 , P2 , P3 - nel loro baricentro G2 ∈ G1 P3 ⊂ V ; e
cosı́ via, fino a G ≡ Gn−1 ∈ V .
22