Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Corso di
Parte II
Elementi di Dinamica aleatoria
Capitolo 5
Elementi di teoria delle probabilità e
variabili aleatorie
In questo capitolo:
Definizioni di base
• molti fenomeni fisici hanno carattere casuale;
• la risposta di strutture ad eventi casuali è anch’essa casuale;
• anche eseguendo numerose registrazioni del vento, qual è il grado di sicurezza di una struttura dimensionata
secondo le forzanti avvenute nel passato?
• una volta definite sia le forzanti che la risposta in termini probabilistici , anche il fattore di sicurezza potrà
essere ottenuto in termini di probabilità.
Definizioni di base
Definizione di probabilità:
• Laplace: (definizione classica) è il rapporto tra il numero dei casi favorevoli al verificarsi dell’evento ed
il numero dei casi possibili, purché siano tutti ugualmente possibili. Questa definizione
non permette di determinare la probabilità di eventi non ugualmente possibili;
• Von Mises: (definizione frequentista) si basa sull’osservazione empirica. In presenza di un numero grande,
ma finito, di esperimenti, la probabilità del verificarsi di un evento E è pari alla sua frequenza
relativa, ovvero al rapporto tra il numero di volte M in cui l’evento si è verificato ed il numero
totale N degli esperimenti;
• Kolmogorov (teoria assiomatica) prescinde dal significato da attribuire al termine probabilità
ma introduce alcuni assiomi per la sua valutazione e consente la costruzione formale di una
Teoria della probabilità.
Definizioni di base
la teoria assiomatica della probabilità utilizza i concetti della teoria degli insiemi:
diagrammi di Venn:
(a) (b)
una variabile aleatoria è perfettamente nota quando si conosce almeno una delle seguenti funzioni:
• funzione distribuzione di probabilità;
• funzione densità di probabilità;
• funzione caratteristica;
• log-funzione caratteristica;
( x ) P [ X ≤ x]
FX=
essa rappresenta la probabilità che la variabile aleatoria X assuma valori non superiori ad un numero reale x.
Valgono le seguenti proprietà:
p X ( x ) dx= P [ a ≤ X ≤ b ]
b
∫a
il suo integrale esprime la probabilità che la variabile aleatoria X assuma valori compresi nell’intervallo [a,b].
Valgono le seguenti proprietà:
dFX ( x ) +∞
FX ( x ) = ∫ p X ( x ) dx pX ( x ) ≥ 0 p X ( x ) dx = 1
x
−∞
pX =
dx ∫−∞
a+h
P [ X = a ] = lim P [ a ≤ x ≤ a + h ] = lim ∫ p X ( x ) dx = 0
h →0 h →0 a
+∞
momento di ordine k: m X [ k ] =E X k = ∫ x k p X ( x ) dx
−∞
+∞
momento di ordine 1: m1 [ k ] = ∫ xp X ( x ) dx = µ X media della v.a.
−∞
+∞
momento di ordine 2: m2 [k ] = ∫ x 2 p X ( x ) dx = ϕ X2 valor quadratico medio della v.a.
−∞
+∞
σ X2 =ϕ X2 − µ X2 = ∫ ( x − µX ) p X ( x ) dx
2
varianza della v.a.
−∞
Funzione caratteristica
è in generale una funzione complessa ed è la trasformata di Fourier della funzione densità di probabilità.
Operando una espansione in serie di MacLaurin della funzione caratteristica si ha :
dM X (θ ) 1 d M X (θ )
2
1 d M X (θ )
j
= X (θ ) M X (θ ) θ =0 + θ+ θ + + θ
2 j
M ...
dθ = θ =0
2! dθ 2 θ 0=
j ! dθ j θ 0
Ricordando che la derivata j-esima della funzione caratteristica valutata per θ = 0 vale:
d j M X (θ ) j +∞ j − iθ x d j M X (θ )
( ) ∫−∞ x e p X ( x ) dx
=− ⇒ (
= − )
j j
i i E X
dθ j
dθ j
θ =0
si ricava che i coefficienti dell’espansione in serie della funzione caratteristica sono i momenti della v.a.:
( −i ) m X θ j = ( −i )
j j
∞
1
M X (θ ) = 1 + ( −i ) m1 [ X ]θ + ( −i ) m2 [ X ]θ 2 + ... + j[ ] ∑ m j [ X ]θ j
2
2 j! j =0 j!
Si definisce log-funzione caratteristica di una variabile aleatoria il logaritmo della funzione caratteristica. :
Operando una espansione in serie di MacLaurin della log-funzione caratteristica si ha :
d ln M X (θ ) 1 d ln M X (θ )
2
1 d ln M X (θ )
k
=
ln M X (θ ) ln M X (θ ) θ =0 + θ+ θ 2
+ ... + θ k
dθ = θ =0
2! dθ 2 θ 0=
k! dθ k θ 0
1 d j ln M X (θ )
kj [X ] =
( −i ) dθ j
j
θ =0
si può esprimere la log-funzione caratteristica in termini di cumulanti:
∞
( −i )
j ∞ ( −i ) j
ln M X (θ ) = ∑ k j [ X ]θ j M X (θ ) = exp ∑ k j [ X ]θ
j
j =1 j! j =1 j !
significato fisico dei cumulanti:
k1 [ X ] = µ X media della v.a. k3 [ X ] simmetria della pX ( x )
k2 [ X ] = σ X2 varianza della v.a. k4 [ X ] appiattimento della pX ( x )
Una variabile aleatoria è normale o gaussiana se tutti i cumulanti di ordine maggiore al secondo sono nulli:
∞ ( −i ) j 1
M X (θ ) =exp ∑ k j [ X ]θ =
j
exp −ik1 [ X ]θ − k2 [ X ]θ 2
j =1 j ! 2
( )
2
1
+∞
1 x − µ
= pX ( x ) ∫e =
iθ x
M X (θ ) dθ exp − X
2π −∞ 2π σ X 2σ 2
X
La v.a. gaussiana è pienamente caratterizzata dalla media e dalla varianza.
La distribuzione gaussiana è tra le più importanti in funzione del Teorema del Limite Centrale (Freeman, 1963):
“Se una variabile aleatoria X è generata da una somma di un gran numero di variabili aleatorie tra loro
indipendenti, allora la variabile aleatoria X avrà una distribuzione Gaussiana qualunque siano le distribuzioni
delle variabili aleatorie che compaiono nella somma”.
Per valutare i valori estremi, si usano in ambito civile i valori caratteristici µ X ± kσ X (k=1.64 -> 90%, k=1.96 -> 95% )
In ambito meccanico si utilizza il cosiddetto metodo 3σ (k=3 -> 99.7%)
a) P [ µ X − σ X ≤ x ≤ µ X + σ X ] = 0.6827
b) P [ µ X − 2σ X ≤ x ≤ µ X + 2σ X ] =0.9545
c) P [ µ X − 3σ X ≤ x ≤ µ X + 3σ X ] =0.9973
In situazioni reali è frequente il caso in cui compaiano più variabili aleatorie. Nel caso di due variabili la
caratterizzazione avviene in maniera congiunta attraverso le seguenti grandezze e proprietà:
) P [ X 1 ≤ x1 ∩ X 2 ≤ x=
FX1 X 2 ( x1 , x2= 2] ∫∫p X1 X 2 ( x1 , x2 )dx1dx2
−∞ −∞
• 0 ≤ FX1 X 2 ( x1 , x2 ) ≤ 1
• p X1 X 2 ( x1 , x2 ) ≥ 0
+∞ +∞
• ∫∫p X1 X 2 ( x1 , x2 )dx1dx2 = 1
−∞ −∞
b1 b2
• P [ a1 ≤ X 1 ≤ b1 ∩ a2 ≤ X 2 ≤ b2 ] =∫ ∫ pX1X 2 ( x1 , x2 )dx1dx2
a1 a2
Una volta note le funzioni congiunte possono essere definite le proprietà delle singole v.a., dette marginali:
+∞
FX1= +∞ ) P [ X 1 ≤ x1 ∩ X 2 ≤=
( x1 ) FX1 X 2 ( x1 ,= +∞ ] ∫∫p X1 X 2 ( ρ1 , ρ2 )d ρ1d ρ2
−∞ −∞
1 E X 1 E X 2
σ X2 =
ϕ X2 − µ X2 ;
1 1 1
σ X2 =
2
ϕ X2 − µ X2 ;
2 2
2 E X E X 1 X 2
1
2
E X 2
2 E [ X1 X 2 ] − E [ X1 ] E [ X 2 ] =
σX X = ϕX X − µX µX ;
1 2 1 2 1 2
3 E X 13 E X 12 X 2 E X 11 X 22 E X 23 σX X
ρ X1 X 2
= ; 1 2
0 ≤ ρ X1 X 2 ≤ 1
σX σX1 2
(
x −µ ) x −µ ( )
2 2
1 1
p X1 X 2 ( x1 , x2 ) = exp − exp − = p (x ) p (x )
1 X1 1 X1
2πσ X1 2σ X1
2
2πσ X 2σ X1
2
X1 1 X2 2
2
se le v.a. sono a media nulla, essa è completamente caratterizzata dalla matrice di covarianza:
E X 12 E X 1 X 2 σ X2 σ X1 X 2
Σ= =
1
E X1 X 2 σ
E X 2 X1 X 2
2
σ 2
X2
Capitolo 6
Elementi di teoria dei processi aleatori
In questo capitolo:
Processo aleatorio
Molti fenomeni fisici casuali (vento, terremoto,
moto ondoso, etc. ) sono spesso funzioni del
tempo. Possiamo descriverli attraverso funzioni
aleatorie di un parametro deterministico (il
tempo). Queste funzioni si chiamano processi
aleatori.
FX1 ( x1 ) P X ( t1 ) ≤ x1
=
∂FX1 ( x1 )
p X1 ( x1 ) =
∂x1
Processo aleatorio
Per caratterizzare l’intero processo bisognerà considerare diverse v.a.:
X s X ( t1 ) X ( t2 ) … X ( ts )
T
=
Come per la caratterizzazione delle v.a. monodimensionali è possibile definire le funzioni distribuzione di
probabilità e densità di probabilità congiunte:
FXs =( x s ) [ X 1 ≤ x1 ∩ X 2 ≤ x2 ∩…∩ X s ≤ xs ] ;
= [ x1 x2 … xs ]
T
xs
∂ s
pX s ( x s ) = FXs ( x s )
∂x1∂x2 …∂xs
ovvero, alternativamente, una funzione caratteristica multi-dimensionale:
M Xs ( θ s ) = E exp ( −iθTs X s ) =∫
+∞ +∞ +∞
∫−∞ …∫−∞ exp −iθs x s pXs ( x s ) dx1dx2 … dxs
T
−∞
=θs [θ1 θ2 … θs ]
T
che può essere espressa in funzione dei momenti o dei cumulanti delle v.a.:
( −i ) ( − )
j
∞
j ∞
i
M Xs ( θ s ) = exp ∑ k j [ Xs ] θs
T [ j]
M Xs ( θ s ) = ∑ m j [ Xs ] θs
T [ j]
j =0 j ! j =1 j !
La caratterizzazione completa può avvenire solo quando si estraggono infinite v.a. dal processo: s → ∞
E [ X1 ]
momenti del primo ordine: m= [ X ] k= [ X ]
E [ X 2 ]
1 2 1 2
E X 12
E [ X 1 X 2 ]
momenti del secondo ordine: m 2 [ X2 ] =
E [ X 2 X 1 ]
E X 2
2
+∞ +∞
media a tempi multipli: E[ Xk Xl ] = ∫ ∫ xk xl pxk xl ( xk , xl ) dxk dxl
−∞ −∞
E X 12 − E [ X 1 ]
2
E [ X 1 X 2 ] − E [ X 1 ] E [ X 2 ]
cumulanti del secondo ordine: k 2 [ X 2 ] =
E [ X 2 X 1 ] − E [ X 2 ] E [ X 1 ]
E X 2 − E X 2
2 [ 2 ]
correlazioni del secondo ordine:
k2 [ X k , X l ] ≡ RX( 2) ( tk=
, tl ) E X ( tk ) X ( tl ) − µ X ( tk ) µ X ( tl )
X1 ( x1 )
p= p X 2 ( x2 ) ≡ p X ( x )
p X1 X 2 ( x1 , x2 ) p X (t1 + t ) X (t2 + t ) ( x1 , x2 ) ∀ t
=
il processo è detto debolmente stazionario o stazionario fino al secondo ordine.
µ=
X µ=
1X µX 2
E X ( t1 + t ) =
X ( t2 + t ) E X ( t1 ) X ( t2 ) ≡ E X ( t1 ) X ( t1 + τ )
RX( ) ( t1 + t , t2 =
+ t ) RX( ) ( t=
1 , t2 ) RX( ) ( t1 , t1=
+ τ ) RX( ) (τ )
2 2 2 2
• Le medie marginali sono costanti, le medie a tempi multipli e le correlazioni dipendono solo da τ.
• Se valgono relazioni simili che coinvolgono m v.a., il processo è stazionario fino all’ordine m.
• Se un processo è stazionario per qualsiasi valore di m, allora si dirà che il processo è fortemente stazionario.
• Se un processo gaussiano è debolmente stazionario ciò implica che esso è anche fortemente stazionario ed è
definito solo da:
[ X i ] µ=
E= X ( ti ) cost.; un numero (la media);
RX( ) ( tk , tl ) = RX( ) ( tk − tl ) =RX( ) (τ ) ;
2 2 2
una funzione di una sola variabile
La funzione di autocorrelazione:
• ha valore massimo in τ = 0
RX( ) ( 0 ) = E X 2 ( t ) − E X ( t ) = σ X2 ;
2 2
La trasformata di Fourier
Data una funzione che soddisfa le condizioni di Dirichlet, si definisce trasformata di Fourier:
+∞
( t ) F=
f= (ω ) ∫−∞
f ( t ) e − iωt dt
si definisce alche la trasformata inversa di Fourier:
1 +∞
−1 F (ω
= ) f=
(t ) ∫ F (ω ) eiωt dt
2π −∞
+∞
2π
serie esponenziale di Fourier (funzioni periodiche): f ( t ) = f ( t + T0 ) = ∑
n = −∞
Fn eiωnt ; ωn = n
T0
rappresenta la distribuzione delle componenti armoniche della funzione f ( t ) sull'asse delle frequenze ed è indicata
come spettro di f ( t ) .
Alcune Proprietà:
a1 x1 ( t ) + a2 x2 ( t ) =a1 X 1 ( t ) + a2 X 2 ( t )
• linearità;
dx ( t )
• derivazione nel tempo: = iω X (ω )
dt
• convoluzione:
∫ f ( t ) g ( t − τ ) dτ =
∞
F (ω ) G (ω )
−∞
La trasformata di Fourier
x (t )
• La trasformata di Fourier consente di passare dal
dominio dei tempi al dominio delle frequenze e
viceversa.
• La trasformazione definisce una corrispondenza t
biunivoca .
Esempio:
2
x (t ) ∑a
n =0
n sin (ωnt + ϕn )
La trasformata di Fourier
Esempio:
a1 x1 ( t ) + a2 x2 ( t ) =a1 X 1 ( t ) + a2 X 2 ( t )
x + 2ζ 0ω0 x + ω x ( t ) =
2
0 f (t )
dx ( t )
x ( t ) + 2ζ 0ω0 x ( t ) + ω02 x ( t ) =
f ( t ) = iω X (ω )
dt
( iω ) X (ω ) = −ω 2 X (ω ) iω X (ω ) X (ω ) F (ω )
2
1
H (ω ) = funzione di trasferimento dell’oscillatore
−ω 2 + ω02 + 2iζω0ω
La trasformata di Fourier
Esempio:
integrale di Duhamel.
x (t ) ∫ f ( t ) h ( t − τ ) dτ
t
x + 2ζ 0ω0 x + ω x ( t ) =
2
0 f (t ) =
0
x ( t ) ∫ f ( t ) h ( t − τ ) dτ
t
∫ f ( t ) g ( t − τ ) dτ =
∞
0 F (ω ) G (ω )
−∞
X (ω ) F (ω ) H (ω )
H (ω )=
h ( t )
1
h (t ) = e −ζ 0ω0t sin (ω0t ) ;
X (ω ) = H (ω ) F (ω ) ω0
serie di Fourier
k =1
se rappresentiamo in un grafico le frequenze in ascissa e l’energia (potenza) associata ad ogni frequenza in ordinata,
otteniamo lo spettro di energia (potenza) del segnale.
+∞ +∞ +∞
funzioni non periodiche: =X (ω ) ∫=x ( t ) e − iωt
dt ∫ x ( t ) cos (ωt ) dt + i ∫ x ( t ) sin (ωt ) dt
−∞ −∞ −∞
Re X (ω ) Im X (ω )
energia specifica o densità spettrale di energia:
S x (ω )
x (ω ) (ω ) Re X (ω ) + Im X (ω )
2 2
= =
X
α +∞
x = ∫ x2 (ω ) d ω
2π −∞
ω
Corso di Dinamica delle Strutture – prof. G. Navarra – A.A. 2015-2016 92
CORSO DI LAUREA MAGISTRALE IN INGEGNERIA CIVILE (LM-23)
=
L’energia specifica di un processo vale: x α= +∞
2 +∞
E ∫ X ( t ) dt α ∫ E X 2 ( t ) dt → ∞
−∞ −∞
α +∞
E ∫ X (ω ) d ω
2
x =
2π −∞
2 S (ω ) 0 ≤ ω ≤ +∞
GX (ω ) = X
0 ω<0
+∞
momenti spettrali: λi , X = ∫ ω i GX (ω ) dω +∞
0 frequenza centrale
∫= ωG ( ω ) d ω λ1, X
(ascissa del baricentro):
= ω 0 X
+∞
λ0, X
∫ G (ω ) d ω
1, X
raggio giratore:
0 X
+∞
∫ ω G (ω ) d ω
2
X λ2, X
ω2, X = 0
+∞
λ0, X raggio giratore baricentrico:
∫ G (ω ) d ω
0 X
1 λ1,2X
ω= λ − = q X ω2, X
2, X
λ0, X 2, X λ0, X
parametro della larghezza di banda :
λ1,2X
qX = 1 − ; 0 ≤ qx ≤ 1
λ0, X λ2, X
(
X ( k ) ( t ) A sin ω0t + θ ( k )
= )
qX = 0
S ω1 ≤ ω ≤ ω2
S X (ω ) = 0
0 altrove
q X = piccolo
q X → 0 se B → 0
S X (ω=) SW ∀ω
qX = 1
B→∞
Capitolo 7
Analisi aleatoria di sistemi lineari
forzati da processi gaussiani
In questo capitolo:
Dinamica Aleatoria
5 10 15 20 25 30 35
1
2
E Ug ( t=
) µ=
Ug
cost.
RUg (τ ) ; SUg (ω )
forzante modellata come sistema strutturale (lineare a parametri invarianti) caratterizzazione del
processo aleatorio ( t ) + CX
(τt ) + KX ( t ) = processo aleatorio di risposta
MX −M Ug ( t )
(Gaussiano stazionario)
Un sistema deterministico forzato da un processo aleatorio darà luogo ad una risposta anch’essa aleatoria. Lo scopo
della Dinamica Aleatoria è:
µF
• media: E X ( t ) + 2ζ 0ω0 E X ( t ) + ω02 E X ( t ) =
E F ( t ) =
µF µX =
ω02
µX
• funzioni di densità spettrale di potenza:
S X (ω )
α
= lim
1
2π T →∞ 2T {
E X (ω , T )
2
}
H (ω ) S F (ω )
2
α
S X (ω ) ω 2
= lim
1
2π T →∞ 2T
{
E X (ω ) X=
*
( ω ) ω=
2
}
S X (ω ) ω 2 H (ω ) S F (ω )
2
1
H (ω ) =
−ω 2 + ω02 + 2iζω0ω
S X (ω ) = H (ω ) S F (ω )
2
X (ω ) = H (ω ) F (ω )
SY j p 2j H j S F
2
dobbiamo caratterizzare il processo risposta: PSD diretta
SY jYk lim
1
2 T 2T
E Y j Yk* SY jYk SY*kY j
Y21 Y Y Y1Yn
1 2
Y Y Y2 Y2Yn
matrice delle covarianze: Σ YY E YY T 2 1 2
Y Y Y Y Yn
2
n1 n 2
S XX lim
1
2 T 2T
E X XT * H ττ T H S F
T*
covarianze: X
S X j X k d X2 1 X X X1 X n
1 2
j Xk
X X X2 X2Xn
matrice delle covarianze: Σ XX E XXT 2 1 2
X X X X n
2
n 1 n X2
• operare con la trasformazione modale è più complesso dal punto di vista analitico, ma consente di effettuare il
troncamento modale e ridurre il numero degli oscillatori modali significativi;
• operare direttamente nello spazio fisico è analiticamente molto semplice ma richiede un onere computazionale
notevolmente superiore. Se il sistema è non classicamente smorzato, esso rimane l’unica alternativa;
pS (T=
s , D) X ( t ) ∈ D; 0 ≤ t ≤ Ts X i ( t ) ≤ Bi → D ∈ n
• Dato un processo aleatorio X( t ) , i valori di picco massimo rappresentano un processo Xmax (Ts) legato al
precedente in modo fortemente non lineare;
• Non esistono formule esatte per determinare il processo Xmax (Ts);
• Nel seguito determineremo con formulazioni approssimate i valori del frattile inferiore di ordine p del massimo
assoluto della risposta, ovvero quel valore della barriera che ha probabilità p di non essere superato in un dato
intervallo;
= X max (Ts ) ≤ X Ts , p p
X Ts , p η X (Ts , p ) λ0, X ; =
fattore di picco
ln − ln ( p )
η X (Ts , p )
= 2 ln 2ν X+ Ts −
2 ln 2ν X+ Ts
ω2, X 1 λ2, X il numero medio degli attraversamenti dello zero con pendenza positiva nell'unità
ν X+
= =
di tempo
2π 2π λ0, X
• Esempio
si vuole calcolare il valore medio di picco massimo assoluto:
µ X max (Ts ) =E X max (Ts ) ≅ 2 ln 2ν X Ts + λ
+ 0.5 772
2 ln 2ν X Ts
+
0, X
2ν X+ Ts
2ν X Ts
+
X ( Ts , p )
η= 1 − exp 1 − q X π ln
1.2
2 ln
− ln ( p )
− ln ( p )
ω2, X 1 λ2, X il numero medio degli attraversamenti dello zero con pendenza positiva nell'unità
ν X+
= =
di tempo
2π 2π λ0, X
λ1,2X
q= 1− parametro della larghezza di banda
X
λ0, X λ2, X
formula di Shinozuka
( )
mc
F (r )
( t=) ∑ 2GF (ω ) ∆ω sin ωk t + θ k( r )
k =1
sistema dinamico
F (r ) (t ) (
g x ( t ) , x ( t ) , )
x (t ) , F (r ) (t ) = 0 X (r ) (t )
nc
2π π
intervallo di campionamento T= > 8∆t → ∆t <
c
ωc 4ωc
Costruzione delle statistiche della risposta:
• Gli nc campioni sono una approssimazione del processo di risposta. A partire da essi è possibile trovare le stime
delle statistiche:
ad esempio: 1 nc (i )
E X ( t ) = X (t )
nc
∑i =1
stima del valore medio
nc
X 2 ( t ) = 1
E n ∑ X ( ) (t )
i =1
i 2 stima del valore quadratico medio
c
FINE
(buono studio!)