Sei sulla pagina 1di 22

Corso di Fisica Matematica per Ingegneria

Prof. G. Fiore

Parte 1: Vettori liberi ed applicati. Baricentro

1
1 Spazi vettoriali
1.1 Definizione e prime proprietá
R ≡ campo dei numeri reali. Sia dato un insieme E con
1. legge di composiz. interna + (somma) (x, y) ∈ E × E → x + y ∈ E

2. legge di composiz. esterna ∗ (prodotto per uno scalare) (a, y) ∈ R × E → a ∗ y ∈ E

x+y =y+x commutativitá di + in E (1.1)


x + (y + z) = (x + y) + z associativitá di + in E (1.2)
∃0 ∈ E : x+0=x esiste elem. neutro rispetto a + (1.3)
∀x ∈ E ∃ (−x) ∈ E : x + (−x) = 0 esiste opposto (1.4)
a ∗ (b ∗ x) = (ab) ∗ x associativitá di * (1.5)
a ∗ (x + y) = a ∗ x + a ∗ y distributivitá di * risp. a + in E (1.6)
(a + b) ∗ x = a ∗ x + b ∗ x distributivitá di * risp. a + in R (1.7)
∀x ∈ E 1∗x=x esiste elem. neutro rispetto a ∗ (1.8)

Definizione 1 Una struttura (E, +, ∗, R) soddisfacente le proprietá precedenti si dice spazio


vettoriale sul campo dei numeri reali R, i suoi elementi vettori.
Nel seguito ax invece di a ∗ x, x + y + z invece di x + (y + z) = (x + y) + z, ed E invece di
(E, +, ∗, R). Esercizio: Dimostra le segg. proprietá:

unicitá di elemento neutro (0 = 0 + 00 = 00 )


m0 = 0 (usa (1.6))
0x = 0 (usa (1.7))
x+y =x+z ⇒ y=z (somma (−x)
unicitá di opposto (da prec. e x + (−x)0 = 0 = x + (−x))
(−1)x = −x (usa (1.7))
m 6= 0, mx = my ⇒ x=y (moltiplica per m−1 )
x 6= 0, mx = px ⇒ m=p (usa (1.7))

1.2 Esempi
1. Spazio vettori del piano aventi la stessa origine O (Fig. 1 sinistra).

2. Spazio vettori del piano liberi

3. Idem in spazio 3-dimensionale

4. Spazio delle n-ple di numeri reali x ≡ (x1 , ..., xn ) ∈ Rn

5. Spazio delle matrici n × m di numeri reali (servirá per spazio dei tensori doppi).

6. Spazio dei polinomi in una variabile t di grado ≤ n

7. Spazio dei polinomi in una variabile t

2
Figure 1:

Esempio 1.: da prop. geometria euclidea. Def. di +: con regola parallelogramma (Fig.
1 destra) ⇒ (1.1) ok, o con regola della poligonale (Fig. 2 in alto, piú comoda per sommare
piú vettori). (1.2), (1.3), (1.4).

Figure 2:

Def. di ∗: a ∗ x ha la stessa direzione di x, lunghezza |a| volte, stesso verso se a > 0,


opposto se a < 0

|ab| = |a| |b| lunghezza ok, direzione ok, verso ok (1.5) ok


(1.6) ok, come guardare tutto con una lente di ingrandimento/rimpicciolimento e dopo
una rotazione di 180° se a < 0.
(1.7) ok, es (1 + 1)x = 2x,
(1.8) ok

Esempio 2: come in 1., ma l’origine e’ variabile, e sono considerati equivalenti vettori che
trasportati parallelamente fino a far coincidere le origini coincidono
Esempio 3: simile a 1., 2

3
Esempi 4, 5: la somma é definita da x + y ≡ (x1 + y 1 , ..., xn + y n ); il prodotto per a ∈ R
é definito da ax = (ax1 , ..., axn )
Esempio 6: {pn (t) = x0 + x1 t + x2 t2 + ...xn tn }; somma di polinomi di grado n e loro
prodotto per un numero
Esempio 7: {p(t) = x0 + x1 t + x2 t2 + ...xn tn + ...}; somma di polinomi di grado arbitrario
e loro prodotto per un numero.

1.3 Sistemi di vettori linear. (in)dipendenti. Dimensione e basi


Sia S = {x1 , ..., xm } ⊂ E.
Definizione 2 S si dice linearmente dipendente se ∃ coefficienti a1 , ..., am in R non tutti
nulli tali che a1 x1 + ... + am xm = 0; linearmente indipendente altrimenti
Definizione 3 E ha dimensione n se ∃S indipendente di n elementi e ∀S 0 di n + 1 elementi
é dipendente.
Indicheremo spesso allora lo spazio con En .
Definizione 4 Una base di En é un sistema {e1 , ..., en } ⊂ En indipendente.
Teorema 1 {e1 , ..., en } é una base di En se e solo se ∀x ∈ En ∃!(x1 , ..., xn ) ∈ Rn tali che
x = x1 e1 + ... + xn en (1.9)
Nota: En ≈ Rn (cioé isomorfo)! Significa: x ∈ En ↔ x ≡ (x1 , ..., xn ) ∈ Rn è una corrispon-
denza biunivoca, con
z =x+y ⇔ z =x+y
z = ay ⇔ z = ay
Ma la corrispondenza biunivoca dipende dalla scelta della base. Esercizi. Per gli esempi 1.,
2., 3., 4. indicare: un sistema linearmente dipendente; un sistema linearmente indipendente;
una base; come si fa la decomposizione (1.9) per gli esempi 1., 2.,

2 Spazi vettoriali euclidei


Consideriamo lo spazio vettoriale E2 dei vettori (liberi o con origine prefissata) del piano.
Dati due vettori x, y ∈ E2 indichiamo con kxk, kyk le loro rispettive lunghezze (o moduli), θ
l’angolo che formano (v. Fig. 3 sinistra).
Si dice loro prodotto scalare il numero reale
x · y = kxk kyk cos θ = kxk y 0 , y 0 ≡ proiezione ortogonale di y su x (2.10)

(si legge x scalare y). É facile verificare che gode delle seguenti proprietá:
x·y =y·x commutativitá (simmetria) (2.11)

x · (y + z) = x · y + x · z distributivitá di · rispetto a + in E
(linearitá) (2.12)
(a x) · y = a (x · y) = x · (a y)
x · x = 0 ⇔ x = 0, x 6= 0 ⇒ x · x > 0 positivitá (2.13)
[v. fig. 3 centro per la dimostrazione della (2.12)1 ], e perció diremo che E2 é euclideo. Piú
in generale,

4
Figure 3:

Definizione 5 Uno spazio vettoriale E si dice euclideo se esiste un’applicazione

(x, y) ∈ E × E → x · y ∈ R,

che diremo prodotto scalare, tale che le proprietá (2.11-2.13) siano soddisfatte.

Anche lo spazio dei vettori (liberi o con origine prefissata) dello spazio tridimensionale é
euclideo: basta che definiamo il prodotto scalare di due vettori come sopra (la verifica si
riduce al caso precedente, basta considerare il piano contenente x, y).

kxk := x · x é detta lunghezza, modulo o norma di x. Lo indicheremo anche con x.

2.1 Componenti controvarianti e covarianti. Basi ortonormali


Dato un versore e, e · x = x0 si dice la componente di x nella direzione di e, (x · e)e = x0 e
si dice il componente di x nella direzione di e. Nella decomposizione (1.9) le xi si dicono
componenti controvarianti di x nella base {e1 , ..., en }. Se lo spazio è euclideo chiameremo
componenti covarianti di x nella stessa base le componenti di x nella direzione dei versori ei ,
cioé gli n prodotti scalari
Xn
xi := x · ei = xj ej · ei (2.14)
j=1

Negli esempi 1., 2., 3. il loro significato geometrico é quello di proiezioni rispettivamente
parallelamente e perpendicolarmente agli assi(v. Fig. 3 destra)
Il prodotto scalare è completamente determinato dalle componenti controvarianti e co-
varianti, o dalle prime e dai prodotti scalari tra i vettori della base:
n
X n
X n
X
i i
x·y = x yi = xi y = xi y j (ei · ej ).
i=1 i=1 i,j=1

Definizione 6 Una base {e1 , ..., en } di uno spazio euclideo si dice ortonormale se

0 se i 6= j
ei · ej = Iij := . (2.15)
1 se i = j

Con I abbiamo denotato la matrice identitá, con Iij il suo elemento alla i-esima riga e j-esima
colonna (quest’ultimo si indica spesso anche con il simbolo δij ). Si può sempre costruire una
base ortonormale (es. col metodo di ortonormalizzazione di Schmidt).

5
Proposizione 1 In una base ortonormale xi = xi ∀x ∈ E. Conseguentemente,
n
X n
X
x= (x · ei )ei , x·y = xi y i . (2.16)
i=1 i=1

Solo in questo caso quindi mettere un indice su o giú non fa differenza. Noi lavoreremo quasi
n
esclusivamente con basi ortonormali. Scegliendo y = x troviamo x2 = x · x = (xi )2 , cioé
P
i=1
il teorema di Pitagora.
n
Possiamo definire il prodotto x·y in Rn in modo che coincida con x·y, cioé x·y = xi y i .
P
i=1

3 Calcolo vettoriale in E3
Una base (e1 , e2 , e3 ) di E3 (terna) si dice levogira se una vite k e3 si sposta nel semispazio verso
cui punta e3 se ruota nel senso che va da e1 a e2 , destrogira se si sposta nel semispazio opposto.
Equivalentemente, (e1 , e2 , e3 ) si dice levogira se posso orientare come questi rispettivamente
pollice, indice e medio della mano destra; destrogira se questo posso farlo usando la mano
sinistra.
Nota: data (e1 , e2 , e3 ) levogira, (ei , ej , ek ) è levogira se (ijk) é una permutazione ciclica di
(123), destrogira altrimenti.
Ricordiamo la def. del prodotto scalare: u · v = kuk kvk cos ϑ. Definiamo ora il prodotto
vettoriale: u × v é un vettore determinato (v. Fig. 4 sinistra) da:
1. direzione ⊥ u, v;
2. modulo ku × vk = kuk kvk sin ϑ (area del parallelogramma di lati u, v);
3. verso tale che (u, v, u × v) é levogira.
Proprietá:
u × v = 0 se u k v ⇐ 2. (3.17)
u × v = −v × u ⇐ 3. (3.18)
(λu) × v = λu × v ⇐ 2., 3. (3.19)
(u + v) × w = u × w + v × w senza dim. (3.20)

Il prodotto misto (u × v) · w dá ± il volume del parallelepipedo di spigoli u, v, w (Fig


4 destra); il + se la terna é levogira, il - se destrogira. É: 1) invariante ciclico, cioè sotto
permutazione ciclica dei tre fattori; 2) nullo se e solo se u, v, w sono complanari.
Per il doppio prodotto vettoriale vale la

(u × v) × w = (u · w)v − (v · w)u; (3.21)

quindi × non é associativo:


(u × v) × w 6= u × (v × w)
Non dimostriamo la (3.20). Essa ci permette di dimostrare facilmente le proprietá che la
seguono, introdotta una base ortonormale levogira (e1 , e2 , e3 ). Allora é facile verificare che

ei ×ei = 0, e1 ×e2 = e3 = −e2 ×e1 , e2 ×e3 = e1 = −e3 ×e2 , e3 ×e1 = e2 = −e1 ×e3
(3.22)

6
Figure 4:

3
ui v i )
P
e (oltre a u · v =
i=1
   
e1 e2 e3 t1 t2 t3
u × v = det  u1 u2 u3  t · (u × v) = det  u1 u2 u3  (3.23)
v1 v2 v3 v1 v2 v3
La seconda si ottiene facilmente dalla prima senza rifare i calcoli, ma osservando che t · z =
3 3
ti z i si ottiene dalla decomposizione z = ei z i sostituendo ei 7→ ti , ed applicando questa
P P
i=1 i=1
regola a z = u×v. Anche la (3.21) si può dimostrare con un calcolo esplicito nelle componenti.

4 Notazione di Grassman per i vettori congiungenti


due punti
Tra i vari tipi di vettori liberi ci sono quelli ”geometrici” che congiungono due punti dello
−→
spazio fisico E3 , p. es. A e B. Anziché con AB noi li indicheremo con il simbolo B − A
(vettore posizione di B rispetto ad A). Il motivo é che le proprietá geometriche fondamentali
(v. Fig. 5) di questi vettori si formulano come se si potessero sommare e sottrarre i punti:
1. B − A = −(A − B)
2. B − A = (B − C) + (C − A)
3. ∀O ∈ En , u ∈ En ∃!P ∈ En tale che P − O = u
Proprietá derivate: 2. e 1.A=B implicano
A−A=0
+(B−C)
A−B =C −D ⇔ A−C =B−D
Si possono quindi “sommare e sottrarre” i punti. Purché il numero di punti preceduti dal
segno + e il numero di punti preceduti dal segno − siano uguali ad ogni membro. Infine,
talvolta si usa anche la notazione B = A + u, che significa per definizione B − A = u
La nozione di“punto” di un piano o dello spazio fisico 3-dim é forse piú intuitiva di quella
di “vettore”, ma meno semplice da formalizzare. Perció abbiamo prima formalizzato la sec-
onda. Cio’ permette ora di formalizzare anche la prima, utilizzando le proprietá precedenti.

7
Figure 5:

Definizione 7 Un insieme En si dice uno spazio puntuale affine n-dimensionale associato


ad En se ∃ un’applicazione (A, B) ∈ En × En → (B − A) ∈ En (A ≡origine B ≡estremo) tale
che valgano le proprietá 1., 2., 3.

Dato O ∈ En , {ei } base (ortonormale) di En , (O, ei ) siPdice un sistema di riferimento


(ortonormale) in En . ∀P ∈ En , i numeri xiP tali che P −O = 3i=1 xiP ei si dicono le coordinate
di P in (O, ei ). Perció PP↔ (xiP ), P ≡ (xiP ).
Nota che B − A = 3i=1 (xiB − xiA )ei : le componenti di B − A sono le differenze delle
−→
coordinate di B meno quelle di A. E’ per questo che abbiamo indicato AB con B − A, e non
A − B.
En si dice euclideo se En é euclideo. Si chiama distanza tra A e B il modulo del vettore
B − A: s
p X
kB − Ak = (B − A) · (B − A) = (xiB − xiA )2
i

(l’ultima uguaglianza vale solo in base ortonormale).

8
5 Vettori applicati nello spazio fisico E3
Se fissiamo in un punto P ∈ E3 l’origine di v otteniamo un vettore applicato (P, v) a P .

M Q := (P − Q) × v

é il suo momento (polare) rispetto al polo Q (v. Fig. 6 sinistra). Ovviamente M Q ⊥piano
contenente P, Q, v, e kM Q k = hv, ove h ≡distanza di Q dalla retta di applicazione di (P, v)
(il braccio).

Figure 6:

Calcoliamo: M Q − M Q0 = (P − Q) × v − (P − Q0 ) × v = (P − Q − P + Q0 ) × v = (Q0 − Q) × v
(5.24)

Proposizione 2 M Q non varia se sposto P o Q parallelamente a v.

Dim: Infatti, per (5.24) risulta M Q − M Q0 = 0 se (Q0 − Q) k v. Analogamente si ragiona se (P 0 − P ) k v.


Consideriamo ora una retta r orientata di versore e.

Proposizione-Definizione 1 M Q ·e non dipende dal particolare Q ∈ r, e viene detto perció


momento assiale di (P, v) rispetto a r, ed indicato con Mr .

Dim: Q, Q0 ∈ r implica (Q−Q0 ) k e. Quindi per (5.24) M Q ·e−M Q0 ·e = [(Q0 −Q)×v]·e = [e×(Q0 −Q)]·v = 0.

5.1 Sistemi (finiti) di vettori applicati


Consideriamo un sistema (cioé un insieme) di un certo numero n di vettori applicati:

Σ := {(P1 , v 1 ), (P2 , v 2 ), ..., (Pn , v n )}.

Definizione 8 Chiameremo risultante di Σ e momento risultante di Σ rispetto al polo Q


rispettivamente i due vettori
n
X n
X
R := vi M Q := (Pi − Q) × v i (5.25)
i=1 i=1

9
Teorema 2 (di Varignon). Se le rette di applicazione di tutti i vettori applicati si incontrano
in uno stesso punto P (v. Fig. 6 destra), allora il momento risultante é uguale al momento
della risultante applicata a P :
M Q = (P − Q) × R. (5.26)

Il teorema segue facilmente dalla proposizione 2.

Teorema 3 (legge di variazione del momento risultante al variare del polo)

M P = M Q + (Q − P ) × R. (5.27)
n
P n
P
Dim: M P − M Q = (Pi − P − Pi + Q) × v i = (Q − P ) × v i = (Q − P ) × R.
i=1 i=1

Corollario 1 Se R = 0 allora il momento risultante é indipendente dal polo, M P = M Q , e


perció si indica semplicemente con M .

Come esempio particolarmente importante di sistemi con R = 0 abbiamo le coppie,


Σ := {(P1 , v), (P2 , −v)}. In questo caso

M = (P1 − P2 ) × v. (5.28)

Quindi M ⊥ (P1 − P2 ), v, cioè M ⊥ piano contenente la coppia. Indichiamo con h il braccio


della coppia Σ, cioé la distanza delle rette di applicazione dei due vettori applicati (v. Fig.
7 sinistra). Evidentemente,
M = vh. (5.29)
Quali (e quante?) sono le coppie Σ = {(P1 , v), (P2 , −v)} con assegnato momento M ? Sono
le seguenti ∞6 , v. Fig. 7 destra: per (5.28) (P1 −P2 ), v devono giacere in un piano ⊥ M .
P1 è arbitrario: ∞3 scelte. P2 si puó prendere arbitrariamente nel piano π ⊥ M passante
per P1 (purché P1 6= P2 ): ∞2 scelte. Deve essere v k π, e il componente v ⊥ ⊥ (P1 − P2 ) è
determinato dalla (5.28), mentre quello v k k (P1 − P2 ) è arbitrario: ∞1 scelte di v.
In particolare, da (5.29) segue che posso ottenere un certo M con un v arbitrariamente
piccolo pur di prendere h sufficientemente grande; se per es. M è il momento necessario a
svitare un bullone, posso ridurre il modulo v delle due forze della coppia utilizzando anziché
una pinza una chiave inglese con braccio h molto maggiore.
Dati due sistemi Σ, Σ0 di vettori applicati (puó essere n 6= n0 ), indichiamo con R, R0 le
loro risultanti, con M Q , M 0 Q i loro momenti risultanti rispetto al polo Q. Dalla (5.27) segue
che se R = R0 e M Q = M 0 Q per il particolare polo Q, allora si ha anche M P = M 0 P per ogni
altro polo P .

Definizione 9 Diremo che Σ, Σ0 sono equivalenti, e scriveremo Σ ∼ Σ0 , se

R = R0 , M Q = M 0Q. (5.30)

In particolare diremo che Σ è equivalente a zero, Σ ∼ 0, se è equivalente all’insieme (di


vettori applicati) vuoto, o un insieme di vettori tutti nulli, o in altri termini, se

R = 0, M Q = 0. (5.31)

10
Figure 7:

Apprezzeremo piú avanti l’importanza di queste nozioni: nelle equazioni cardinali della
dinamica, che in particolare determinano il moto di un solido (v. fig. 8 sinistra), compare
solo la risultante R ed il momento risultante M Q delle forze esterne agenti su esso, quindi
piú sistemi di forze equivalenti nel senso (5.30) ne determinano lo stesso moto, in particolare
ne determinano la quiete se vale (5.31); la (5.31) é condizione necessaria per l’equilibrio
di un sistema S di uno o piú corpi e sufficiente per l’equilibrio di un solido. Esempio di
applicazione: il Principio della leva di Archimede (v Fig. 8 destra). L’asta (supposta per
semplicitá di massa trascurabile) appoggiata ad un cuneo nel punto O e ai cui estremi P1 , P2
sono appoggiati i pesi F 1 , F 2 é in equilibrio se
R=0 ⇔ F = −F 1 − F 2 , MO = 0 ⇔ h1 F1 = h2 F2 .
La prima condizione é sempre soddisfatta, perché il cuneo (=vincolo rigido) puó esercitare
qualunque forza, anche la F = −F 1 − F 2 . La seconda solo se h2 = lF1 /(F1 + F2 ) (ho
utilizzato che i bracci soddisfano anche h1 + h2 = l = lunghezza dell’asta). Quindi posso
equilibrare anche un peso molto grande con uno molto piccolo prendendo h2 quasi uguale a
l, cioé h1 molto piccolo.

Figure 8:

Riformuliamo come equivalenze la proposizione 2 e il teorema di Varignon:

11
Proposizione 3 Dato Σ, se sposto il punto di applicazione Pi di un qualsiasi vettore appli-
cato (Pi , v i ) parallelamente a v i ottengo un sistema Σ0 equivalente: Σ0 ∼ Σ.
Se le rette di applicazione di tutti i vettori si incontrano in P , allora Σ ∼ {(P, R)}.

Ecco altre proprietá di immediata o facile dimostrazione:

Proposizione 4

1. Se Σ = ΣI ∪ΣII (unione disgiunta) allora R = RI+RII , M Q = M IQ+M II


Q (additivitá).

2. Una coppia di braccio nullo é equivalente a zero. Da essa segue che

3. Dato Σ, se ci aggiungo una coppia di braccio nullo ottengo un sistema equivalente.

4. Se invece Σ ∼ (A, R), aggiungendo a Σ un vettore (A0 , −R), con A0 un punto delle
retta k R e passante per A, ottengo un sistema equivalente a zero.

Proposizione 5 Per ogni Σ e ogni punto P , detti R, M P i corrispondenti risultante e mo-


mento risultante, e {(P1 , v), (P2 , −v)} una delle ∞6 coppie con momento pari a M P , risulta
Σ ∼ {(P, R), (P1 , v), (P2 , −v)} =: Σ0 .

Dim: Infatti R0 = R + v − v = R, M 0P = (P − P ) × v + M P = M P .
Scegliendo P1 = P e ponendo u := R + v troviamo il

Corollario 2 Σ ∼ {(P, u), (P2 , −v)}. Cioé ogni sistema é equivalente a due vettori applicati,
di cui uno ad un punto P arbitrario.

Figure 9:

12
5.2 Campi vettoriali
Una funzione f che ad ogni punto P dello spazio fisico fisico E3 associa un numero reale f (P )
si dice un campo scalare. Un esempio di campo scalare é la pressione [la pressione f (P ) in
P si misura ponendo un barometro nel punto P ]. Poiché, fissato un sistema di riferimento,
il generico punto P è individuato dalla terna delle sue coordinate (x, y, z), f si puó vedere
anche come una funzione f (x, y, z) di queste tre variabili. Una funzione v che ad ogni punto
P dello spazio associa un vettore v(P ) si dice un campo vettoriale. Un esempio di campo
vettoriale é la densitá di forza peso in un corpo esteso.
Un sistema di n vettori applicati Σ si puó vedere come un campo vettoriale discreto, cioé
che associa solo agli n punti P = Pi dei vettori v(Pi ) = v i 6= 0, mentre v(P ) = 0 se P 6= Pi .
Invece in generale in un campo vettoriale continuo v(P ) 6= 0 per infiniti punti P .
La risultante e il momento risultante di un campo vettoriale v(P ) continuo si introducono
sostituendo alle sommatorie degli integrali sul supporto V di v(P ) (v. Fig. 9):
Z Z
R := dV v(P ) M Q := dV (P − Q) × v(P ) (5.32)
V V

Queste definizioni si possono vedere come limite delle (5.25): si divide il supporto di v(P )
[la regione V in cui v(P ) 6= 0] in tanti volumetti di volume dV ; detto n il loro numero, li
enumeriamo con i = 1, 2, ..., n, indichiamo con Pi i loro centri, poniamo v i ≡ v(Pi )dV . Nel
limite in cui dV → 0, n → ∞ e le somme (5.25) diventano gli integrali (5.32). I teoremi
dell’analisi assicurano l’esistenza di questo limite e la loro indipendenza dalla particolare
partizione di V , sotto opportune ipotesi di regolaritá di v(P ).
I risultati e le definizioni precedenti e seguenti continuano a valere, perché si ottengono
da quelli relativi al caso di sistemi Σ finiti facendo questo limite di entrambi i membri.
Cosı̀ sarà anche per gli altri risultati. Perció ci limiteremo a dimostrarli per Σ finiti.

5.3 Invariante scalare. Asse centrale


Tutto quanto è trattato in questa sottosezione è basato unicamente sulla (5.27).
Moltiplicando scalarmente per R entrambi i membri e osservando che R·[(Q−P )×R] = 0
(perché prodotto scalare tra vettori ortogonali), ricaviamo R · M P = R · M Q , cioè lo scalare

T := R · M P (5.33)

non varia al variare del polo P , perció viene detto invariante scalare del campo vettoriale Σ.
Se R 6= 0 l’invarianza di T equivale a dire che nella decomposizione di M P in un compo-
nente L k R ed uno M ⊥ P ⊥ R (v. Fig. 10 sinistra) L è indipendente da P :

MP = L + M⊥
P. (5.34)

Infatti, T = M P · R = L · R = LR ⇒ L = T /R, che è indipendente da P ; quindi anche


L = Lvers(R) = RT2 R è indipendente da P .
Esistono punti P per cui M ⊥
P = 0?

Proposizione 6 L’insieme di punti dello spazio


 
T
A := A ∈ E3 | M A = L = 2 R . (5.35)
R

13
Figure 10:

è una retta k R detta asse centrale (v. Fig. 10 destra). Per ogni punto P ∈ E3 risulta
M P = L + (A − P ) × R, A ∈ A. (5.36)
A è anche il luogo dei punti A ∈ E3 in cui M A k R oppure M A = 0, ed il luogo dei punti
A ∈ E3 in cui M A è minimo.
Dim: Come punto P nella (5.27) prendiamo un punto A ∈ A: troviamo l’equazione vettoriale
L = M A = M Q + (Q − A) × R (5.37)
nell’incognita A. Per cercarne le soluzioni scegliamo una terna ortonormale (O, x, y, z) con ~z k R. Allora
M A = L ∝ ~z equivale a Lx = 0 = Ly . Indicando con (xA , yA , zA ) e (xQ , yQ , zQ ) le coordinate di A, Q
rispettivamente, la (5.37) diventa l’equazione vettoriale


i j k

L = M Q + det Q(x −x A ) (y Q −yA ) (zQ −zA ,
)
0 0 Rz

o equivalentemente un sistema di 3 equazioni; la componente z é identicamente soddisfatta (0 = 0), mentre,


siccome Lx = 0 = Ly , le componenti x, y diventano
y
0 = Lx = MQ
x
− (yQ −yA )Rz 0 = Ly = MQ + (xQ −xA )Rz
nelle incognite xA , yA . Le soluzioni del sistema sono
y x
MQ MQ
xA = xQ − , yA = yQ + , ∀zA ∈ R
Rz Rz
e formano una retta A k ~z k R, come annunciato. (La (5.37) si potrebbe risolvere anche in modo vettoriale,
senza introdurre sistemi di riferimento.) Infine, prendendo Q ≡ A ∈ A la (5.27) diventa (5.36). I due termini
a secondo membro sono ortogonali, e il secondo si annulla se e solo se P ∈ A, quindi A è anche il luogo
dei punti A ∈ E3 in cui M A k R oppure M A = 0, ed il luogo dei punti A ∈ E3 in cui M A è minimo (infatti
MP ≥ L, e l’equaglianza vale solo se il secondo termine è nullo). 
La formula (5.36) si puo’ considerare valida anche nel caso R = 0 (caso in cui il momento
é indipendente dal polo) ponendo L = M P : sebbene A non esista, e quindi la scelta di A sia
indeterminata, essa é ininfluente, perché il secondo termine a secondo membro risulta nullo,
esattamente come nella (5.27). Anche in questo caso risulta T = LR. Da ciò segue

L=0 ⇒ Σ ∼ {(A, R)},
T =0 ⇔ (5.38)
oppure R = 0 ⇒ Σ ∼ coppia di momento L.

14
Per dimostrare le implicazioni ⇒ basta usare la proposizione 5, scegliendo P = A nel primo
caso. Si verifica T = 0 in particolare per i segg. tre casi: 1. Σ soddisfa le ipotesi del teorema
di Varignon; 2. Σ é un sistema di vettori piano (sez. 5.4); 3. Σ é un sistema di vettori
paralleli (sez. 5.5).

5.4 Sistema piano di vettori applicati

Σ := {(P1 , v 1 ), (P2 , v 2 ), ..., (Pn , v n )}

si dice piano se esiste un piano π tale che Pi ∈ π e v i k π per tutti gli i = 1, 2, ..., n (v. figura
11 sinistra). In questo caso evidentemente R k π, mentre per Q ∈ π si ha (Pi − Q) k π, da
cui (Pi − Q) × v i ⊥ π e M Q ⊥ π. Quindi anche in questo caso T = 0, e vale l’implicazione
(5.38).
Se R 6= 0 l’asse centrale sará quindi caratterizzato dalla condizione M A = 0. Scegliendo
una terna di riferimento O~x~y~z in modo che il piano Oxy coincida con π, e quindi M O k k,
la (5.37) con Q = O scomposta nelle tre componenti dá

−yA −zA

 x: 0= y = zA Ry
R 0


i j k 

z
 −xA −zA
0 = MO k+det −xA −yA −zA ⇒
y : 0 = − x = −zA Rx
Rx Ry R 0
0




z
−xA −yA
 z : 0 = MO + x

 = M z + y A R x − xA R y .
R Ry O

Le prime due equazioni danno zA = 0, cioè A è contenuta nel piano π ≡ Oxy; la terza dice
che è la retta di equazione

0 = MAz = MOz + || = MOz + yA Rx − xA Ry = 0. (5.39)

Dato un sistema piano di due vettori applicati Σ := {(P1 , v 1 ), (P2 , v 2 )} con risultante
nonnulla R, è semplice determinare graficamente un vettore applicato (A, v) equivalente e
l’asse centrale. Chiaramente v = R e A sará la retta k R passante per A. Se v 1 , v 2 sono
paralleli, basterá prendere A = C determinato come alla sottosezione 5.5; se v 1 , v 2 non sono
paralleli, basterá prendere A come intersezione delle rette di applicazione di (P1 , v 1 ), (P2 , v 2 ),
come mostrato in Fig. 11 destra, per il teorema di Varignon.

Figure 11:

15
Dato un sistema piano di n > 2 vettori applicati con risultante R nonnulla, reiterando il
metodo precedente si determina graficamente un vettore applicato (A, v) equivalente e l’asse
centrale (di nuovo v = R e A sará la retta k R passante per A). Esiste anche un metodo
grafico alternativo molto potente, quello del cosiddetto “poligono funicolare”, che permette
di ricavare in un sol colpo i risultati precedenti per un sistema piano di n vettori applicati,
qualsiasi sia n; noi peró non avremo il tempo di trattarlo.

5.5 Centro di un sistema di vettori paralleli


Un tale campo vettoriale Σ si puó sempre scrivere nella forma
Σ := {(P1 , λ1 v), (P2 , λ2 v), ..., (Pn , λn v)},
con v un vettore che fissa la direzione del campo vettoriale e opportuni λi ∈ R. Risulta
evidentemente n n
X X
R= λi v ≡ Λv, ove Λ := λi . (5.40)
i=1 i=1
Inoltre T = 0, perché M Q ⊥ v. Quindi se R = 0, allora Σ ∼ coppia di momento L.
Se invece R 6= 0 (cioè Λ 6= 0), allora L = 0 e Σ ∼ {(A, R)}, e per ogni polo Q
n
" n
#
X 1X
MQ = (Pi − Q) × λi v = (Pi − Q)λi × R. (5.41)
i=1
Λ i=1

Proposizione-Definizione 2 Il punto C definito da


n
1X
C − Q := λi (Pi − Q) (5.42)
Λ i=1

è indipendente dalla scelta di Q, e viene detto centro del campo Σ di vettori paralleli
Dim. Chiamiamo C 0 il punto individuato da (5.42) con la scelta di un altro punto Q0 al posto di Q:
n
C 0 − Q0 := Λ1 λi (Pi − Q0 ). Di qui troviamo che C 0 − C = 0, e quindi C 0 = C, perché
P
i=1
n n
X λi X λi
C0 − C = (C 0 − Q0 ) + (Q0 − Q) + (Q − C) = (Pi − Q0 ) − (Pi − Q) + (Q0 − Q)
i=1
Λ i=1
Λ
n n
X λi X λi
= [(Pi −Q0 ) − (Pi −Q)] + (Q0 − Q) = (Q − Q0 ) + (Q0 − Q) = 0.
i=1
Λ i=1
Λ

L’utilitá di questa definizione é che (5.41) assume una forma analoga al teorema di
Varignon:
M Q = (C − Q) × R. (5.43)
Inoltre Σ ∼ {(C, R)}; quindi C ∈ A. A è quindi la retta k R k v passante per C.
Il campo dei vettori peso di un sistema S di punti materiali é l’esempio piú importante di
campo di vettori paralleli con R 6= 0: come v possiamo prendere l’accelerazione di gravitá g,
come λi la massa mi del punto materiale di posizione Pi . In questo caso C si dice baricentro
di S, e lo indicheremo con G:
n n
X mi X
G − Q := (Pi − Q), m := mi (5.44)
i=1
m i=1

16
questa forma ci dice che il vettore posizione di G (rispetto ad Q) é la media pesata dei vettori
posizione dei punti Pi del sistema, con pesi1 mi /m. Analogamente, se Q é l’origine di una
terna di riferimento le tre coordinate di G sono le medie pesate delle coordinate dei punti:
n n n
X mi X mi X mi
xG = xi , yG = yi , zG = zi . (5.45)
i=1
m i=1
m i=1
m

Per un campo vettoriale continuo λ(P )v di supporto V la definizione (5.42) di centro


diventa Z Z
λ(P )
C − Q := dV (P − Q), Λ := dV λ(P ). (5.46)
V Λ V
In particolare per un sistema materiale continuo S occupante una regione V con densitá
µ(P ) la definizione (5.44) di baricentro di S diventa
Z Z
µ(P )
G − Q := dV (P − Q), m := dV µ(P ). (5.47)
V m V

Tutte le proprietá che dimostreremo varranno anche in questi casi.


1. Indipendenza da v: Si noti che v non compare nelle definizioni di C e quindi
C rimane invariato se ruoto v, cioè lo sostituisco con un altro vettore v 0 [quindi posso
determinare C anche come intersezione C = A(v) ∩ A(v 0 )]. Nell’esempio precedente ció
corrisponde al fatto che la posizione del baricentro di un solido non dipende da come S é
orientato rispetto alla verticale (la direzione di g).
2. Appartenenza a retta/piano Dalla (5.42) segue immediatamente anche che se il
sistema Σ é contenuto in una retta r o un piano π, allora C ∈ r o C ∈ π. Infatti, scegliendo
n r
Q∈ trovo
π

retta r nr nr
∀i Pi ∈ ⇒ (Pi − Q), (C − Q) k ⇒ C∈ (5.48)
piano π π π

3. Invarianza per riscalamento dei vettori: la sostituzione λi 7→ αλi non cambia


C (perché lascia i rapporti λi /Λ invariati). Nell’esempio dei vettori peso ció implica che
il baricentro di una sistema materiale continuo omogeneo S, e cioè di densitá di massa
costante, é indipendente dal valore di quest’ultima e dipende solo dalla geometria di S (ad
es il baricentro di una sfera/cubo di legno e’ lo stesso di una di ferro).
Determiniamo il centro di un sistema di due vettori paralleli. La formula (5.42) diventa
λ1 λ2
C −Q= (P1 − Q) + (P2 − Q) (5.49)
Λ Λ
Prendendo Q ≡ C trovo

λ2 kC − P1 k λ2
C − P1 = − (C − P2 ), ⇒ = . (5.50)
λ1 kC − P2 k λ1
Di qui é evidente che (v. Fig. 12):
1. C ∈ retta passante per P1 , P2 , all’interno/esterno del segmento P1 P2 a seconda che
λ1 , λ2 siano concordi/discordi, e piú vicino al punto Pi con |λi | maggiore;
1
Un insieme di pesi é un insieme di numeri wi nonnegativi la cui somma é 1.

17
Figure 12:

2. piú precisamente, nel punto C ad una distanza da P1 data dalla (5.50)2 , o da (5.51)2 .
Prendendo Q ≡ P1 trovo invece

λ2 λ2
C − P1 = (P2 − P1 ), ⇒ kC − P1 k = kP2 − P1 k. (5.51)
Λ Λ
Vale anche la relazione con 1, 2 scambiati.
Graficamente C si puó determinare in entrambi i casi come intersezione delle due rette
passanti rispettivamente per i punti di applicazione e gli estremi dei due vettori appli-
cati (P1 , −λ2 v), (P2 , λ1 v), come si vede sfruttando la proporzionalitá delle lunghezze di lati
omologhi in triangoli simili (v. Fig. 13). Trovo A come la rettak v passante per C.
Posso anche determinare prima A e poi C con il seguente metodo grafico alternativo: ag-
giungendo a Σ una coppia di braccio nullo ottengo un sistema Σ0 ∼ Σ. Scelgo una coppia del
tipo {(P1 , u), (P2 , −u)} con u k (P1 −P2 ), v. figura 14. Detto Σ00 := {(P1 , v 1 + u), (P2 , v 2 − u),
applicando tre volte il teorema di Varignon trovo Σ ∼ Σ0 ∼ Σ00 ∼ Σ000 := {(A, R)}, ove A
é l’intersezione delle rette di applicazione dei vettori di Σ00 . Dopodiché trovo A come la
rettak v passante per A, C come intersezione di A con la retta passante per P1 , P2 . Si noti
che allungando o accorciando u il punto A cambia rimanendo su A.
Applicando n−1 volte i procedimenti grafici precedenti posso determinare graficamente
il centro di un sistema di n vettori. Se essi giacciono in uno stesso piano questo si potrebbe
fare piú rapidamente col metodo del poligono funicolare, giá menzionato.

5.6 Esercizi
1. Determinare graficamente e/o analiticamente risultante, momento risultante rispetto
all’origine, invariante scalare, asse centrale del sistema piano

Σ := {(P1 , v 1 ), (P2 , v 2 ), (P3 , v 3 )},

ove P1 ≡ O(0, 0, 0), P2 (2, 0, 0), P3 (−1, −1, 0) e v 1 ≡ (1, −2, 0), v 2 ≡ (0, −1, 0), v 3 ≡
(2, 0, 0) in un’opportuna terna di riferimento (O, i, j, k) prefissata. Esiste un sistema
equivalente costituito da un unico vettore applicato?

2. Determinare graficamente e/o analiticamente risultante, momento risultante rispetto


all’origine, invariante scalare, centro, asse centrale del sistema piano

Σ := {(P1 , v 1 ), (P2 , v 2 )},

18
Figure 13:

ove P1 (1, 0, 0), P2 (3, 1, 0), e v 1 ≡ (0, 2, 0), v 2 ≡ (0, −1, 0) in un’opportuna terna di
riferimento (O, i, j, k) prefissata. Aggiungere un ulteriore vettore applicato in modo da
avere un sistema equivalente a zero.

3. Determinare graficamente e/o analiticamente risultante, momento risultante rispetto


all’origine, invariante scalare, del sistema piano

Σ := {(P1 , v 1 ), (P2 , v 2 ), (P3 , v 3 )},

ove P1 ≡ O(0, 0, 0), P2 (1, 0, 0), P3 (−1, −1, 0) e v 1 ≡ (−2, 1, 0), v 2 ≡ (0, −1, 0), v 3 ≡
(2, 0, 0) in un’opportuna terna di riferimento (O, i, j, k) prefissata. Esistono il centro e
l’asse centrale? Trovare una coppia equivalente a Σ.

4. Dimostrare che il sistema piano

Σ := {(P1 , v 1 ), (P2 , v 2 ), (P3 , v 3 )},

ove P1 (−2, 0, 0), P2 (1, 1, 0), P3 (1, −1, 0) e v 1 ≡ (−2, 0, 0), v 2 ≡ (1, 1, 0), v 3 ≡ (1, −1, 0)
in un’opportuna terna di riferimento (O, i, j, k) prefissata, é equivalente a zero.

5. Determinare analiticamente risultante, momento risultante rispetto all’origine, invari-


ante scalare, asse centrale A del sistema (non piano)

Σ := {(P1 , v 1 ), (P2 , v 2 ), (P3 , v 3 ), (P4 , v 4 )},

ove P1 (0, 0, 0), P2 (2, 0, 0), P3 (−1, −1, 0), P4 (0, 1, 2) e v 1 ≡ (−2, 1, 0), v 2 ≡ (0, −1, 0),
v 3 ≡ (2, 0, 0), v 4 ≡ (0, 1, 0) in un’opportuna terna di riferimento (O, i, j, k) prefissata.
Trovare una coppia {(Q1 , u), (Q2 , −u)} tale che

Σ ∼ {(A, R), (Q1 , u), (Q2 , −u)}.

19
Figure 14:

5.7 Ulteriori proprietá del baricentro


Evidentemente il baricentro di 2 particelle si trova sempre sul segmento che le congiunge; in
particolare nel punto medio se hanno la stessa massa.
Dividiamo il sistema S di n particelle in due parti S 0 , S 00 ed enumeriamo le particelle di
n
S 0 con i = 1, ..., k < n, quelle di S 00 con i = k +1, ..., n (v. fig. 15). Detta m00 =
P
mi la
i=k+1
massa di S 00 , da (5.44) ricaviamo
k k
" n
#
X X mi m00 X mi
m= mi + m00 , G−Q= (Pi − Q) + 00
(Pi − Q)
i=1 i=1
m m i=k+1
m

Ma l’espressione in parentesi quadra non é altro che il vettore posizione G00−Q del baricentro
di S 00 . Giungiamo quindi alla
4. Proprietá distributiva: Il baricentro di S non cambia se “concentro” una parte
S 00 nel suo baricentro G00 (o piú parti nei loro baricentri), cioé se sostituisco S 00 con una
particella di massa m00 in G00 :
k
X mi m00 00
G−Q = m (Pi − Q) + (G − Q) (5.52)
i=1
m m
m0 0 m00 00
= (G − Q) + (G − Q); (5.53)
m m
l’ultima espressione si ottiene applicando la proprietá anche ad S 0 , e riduce la determinazione
di G a quella del baricentro di 2 particelle.
Non necessariamente G coinciderá con un punto di S, anche se questo é continuo (ad
esempio, il baricentro G di un anello é al suo centro, che non appartiene all’anello. Tuttavia,
essendo G − Q la media pesata dei vettori posizione Pi − Q, ci aspettiamo che G si trovi
grosso modo ”in mezzo” ai punti del sistema S (non lontano da essi). Questa attesa si puó

20
Figure 15:

Figure 16:

21
Figure 17:

Figure 18:

precisare con la proprietá seguente. Ricordiamo prima che una regione C si dice convessa se,
qualsiasi siano P, P 0 ∈ C, il segmento P P 0 é incluso in C, v. figura 16.
5. Proprietá di convessitá: Il baricentro di S si trova in ogni regione convessa V (in
particolare, la piu’ piccola V 0 ) che contiene tutti i punti di S, v. figura 17 sinistra.
La dimostrazione é iterativa; per la proprietá distributiva posso: 1. concentrare P1 , P2 nel loro baricentro
G1 ∈ P1 P2 ⊂ V ; concentrare G1 , P3 - o equivalentemente P1 , P2 , P3 - nel loro baricentro G2 ∈ G1 P3 ⊂ V ; e
cosı́ via, fino a G ≡ Gn−1 ∈ V .

Dato un sistema materiale S contenuto in un piano π e due rette r, s ⊂ π non parallele, si


dice che s é retta diametrale coniugata alla direzione di r per S se le particelle di S si possono
dividere in coppie (Pi , Pi0 ) tali che mi = m0i , Pi Pi0 é k r e dimezzato da s; se in particolare
r ⊥ s, allora s si dice asse di simmetria di S. Esempi: parallelogramma e triangolo omogenei
(v. fig. 17 destra).
6. Proprietá di appartenenza a retta diametrale: se ció accade allora G ∈ s.
Dim.: per la proprietá 4. G non cambia se sostituisco ogni coppia (Pi , Pi0 ) con una particella di massa 2mi
posta nel suo baricentro Gi ∈ s, cioé S con un sistema di particelle poste su s. Allora G ∈ s per proprietá 2

Analogamente, dati un sistema materiale S, un piano π ed una retta r non parallela a


π, si dice che π é piano diametrale coniugato alla direzione di r per S se le particelle di
S si possono dividere in coppie (Pi , Pi0 ) tali che mi = m0i , Pi Pi0 é k r e dimezzato da π; se
in particolare r ⊥ π, allora π si dice piano di simmetria di S. Esempi: parallellepipedo
omogeneo (v. fig. 18 sinistra). Come prima si dimostra la
7. Proprietá di appartenenza a piano diametrale: se ció accade allora G ∈ π.
Usando le proprietá 4,6,7 posso trovare graficamente G di corpi che sono unione o differenza
di parti di cui conosciamo i baricentri grazie a proprietá di simmetria. Esempi: sistemi piani
omogenei a forma di L,T,I, un cerchio scavato in un altro, etc (v. fig. 18 destra).

22

Potrebbero piacerti anche