Sei sulla pagina 1di 117

Appunti di 05BQXNZ - Metodi matematici per

l’ingegneria

Studente: MACI Samuele Docente: RECUPERO Vincenzo


Politecnico di Torino Ricercatore Confermato
Anno Accademico 2011/2012 vincenzo.recupero@polito.it
samuele.maci@studenti.polito.it

16 maggio 2012

c

c Il testo è stato redatto in LATEX attraverso l’applicativo TEXnicCenter; i grafici sono realizzati at-
traverso il software di calcolo numerico Matlab, mentre le immagini attraverso un programma di grafica
vettoriale (nel caso specifico Inkscape).
Sono stati sfruttati pacchetti per LATEX come caption, changepage, eso-pic, fancyhdr, geometry,
listings, subfig, . . . .
N.B. Il seguente documento è un quaderno di appunti ; il nome del corso (Appunti di 05BQXNZ - Metodi
matematici per l’ingegneria) è fornito solo per avere un’indicazione riguardo agli argomenti/metodo-
logie affrontate nel corso; questo non implica una diretta verifica/approvazione da parte del/dei docenti
indicati (che sono forniti sempre in via indicativa).
Si vuol ricordare che tali appunti possono essere affetti da errori e per questo motivo si richiede di comu-
nicare il sottoscritto, alla mail macisamuele@gmail.com, con eventuali correzioni e/o suggerimenti nella
stesura, indicando chiaramente il documento a cui ci si riferisce.
Indice

I Probabilità 1

1 Calcolo Combinatorio 3
1.1 Permutazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Combinazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

2 Assiomi della probabilità 7


2.1 Definizione assiomatica di probabilità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.1.1 Principio di inclusione-esclusione . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

3 Probabilità condizionata 17
3.1 Dipendenza condizionata . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

4 Variabili Aleatorie 25
4.1 Variabili Aleatorie Discrete . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.1.1 Trasformazione di una variabile aleatoria discreta . . . . . . . . . . . . . . . . . . . 27
4.1.2 Varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.1.3 Variabili aleatorie discrete notevoli . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.2 Variabili aleatorie continue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.2.1 Valore atteso di una variabile aleatoria continua . . . . . . . . . . . . . . . . . . . 35
4.2.2 Variabili aleatorie continue notevoli . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.3 Leggi congiunte di variabili aleatorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.3.1 Funzioni di densità congiunte di variabili aleatorie discrete . . . . . . . . . . . . . . 45
4.3.2 Funzioni di densità congiunte di variabili aleatorie continue . . . . . . . . . . . . . 45
4.4 Variabili aleatorie indipendenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.4.1 Somma di variabili aleatorie indipendenti . . . . . . . . . . . . . . . . . . . . . . . 49

II Analisi Matematica 51

5 Ripasso numeri complessi 53


5.1 Rappresentazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.2 Operazioni fondamentali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.3 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

6 Funzioni complesse 59
6.1 Esponenziale complesso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
6.2 Funzioni trigonometriche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
6.2.1 Proprietà . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
6.3 Funzioni iperboliche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
6.3.1 Proprietà . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
6.4 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60

7 Analisi in Campo Complesso 63


7.1 Curve in C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
7.2 Limiti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
7.3 Derivata complessa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
7.4 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

I
8 Integrali 69
8.1 Definizioni: Curve in C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
8.2 Integrali curvilinei . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
8.2.1 Richiamo di Analisi Matematica II . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
8.3 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73

9 Successioni e Serie 79
9.1 Serie in C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
9.2 Serie di potenze in C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
9.3 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81

10 Teorema di Laurent e dei Residui 85


10.1 Metodi di calcolo dei Residui . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
10.2 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87

11 Distribuzioni 91
11.1 Introduzione (non formale) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
11.2 Distribuzione: definizioni rigorose . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
11.3 Operazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
11.4 Convergenza di distribuzioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
11.4.1 Estensione a C ∞ (R) delle distribuzioni a supporto compatto . . . . . . . . . . . . 98
11.5 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98

12 Appendice 107

II
Elenco delle figure

2.1 Griglia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2 Rappresentazione insiemistica degli studenti . . . . . . . . . . . . . . . . . . . . . . . . . . 15

5.1 Sintesi grafica della rappresentazione di numeri complessi sul piano di Gauss (piano complesso) 54

6.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
6.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

11.1 Grafici di f (x) degli esercizi 11.23, 11.24, 11.25, 11.26, 11.31, 11.41 . . . . . . . . . . . . . 106

III
IV
Parte I

Probabilità

1
Capitolo 1

Calcolo Combinatorio

Il calcolo combinatorio ci aiuta a numerare gli elementi di un insieme che gode di determinate caratteri-
stiche.
Un banale esempio applicativo è contare il numero di targhe italiane11 che possono essere realizzata (in
particolare si ha che la cardinalità dell’insieme delle targhe è #(targhe) = 212 · 103 · 212 ).

1.1 Permutazioni
Sia N = {x1 , x2 , . . . , xn } un insieme di elementi distinti, dove n = #(N ) è la cardinalità dell’insieme.
Definizione 1.1 L’insieme delle permutazioni di N , P(N ), è l’insieme di tutti i possibili ordinamenti
dell’insieme N .

Il numero delle permutazioni, indicato come, #(P(N )) = n!.
Sorge ora il problema di calcolare il numero di permutazioni di un insieme N 0 nel quale sono presenti n
elementi non tutti distinti. In questo caso si considerano tutte le permutazioni degli elementi (n!) e si
divide il risultato per la permutazione dei singoli elementi ripetuti.
Esempio 1.1 Quanti sono gli anagrammi della parola PEPPER?

N = {P, E, P, P, E, R}
con n1P = 3, n2E = 2, n3R = 1; pertanto
n! 6!
#(P(N )) = =
n1 ! · n2 ! · n3 ! 3! · 2!
In generale quindi
n!
#(P(N )) = k
Y
nk
i=1
dove n = #(N ), k è il numero di elementi distinti e nk è il numero di elementi indistinguibili.

1.2 Combinazioni
Sia N = {x1 , x2 , . . . , xn } un insieme di elementi distinti, dove n = #(N ) è la cardinalità dell’insieme.
Definizione 1.2 L’insieme delle combinazioni di N di classe k, con k ≤ n, Cn,k (N ) è l’insieme dei
sottoinsiemi di N con cardinalità k.

Due combinazioni sono distinte se varia almeno un elemento, non è quindi importante l’ordine.
Per il conteggio
 delle combinazioni si prendono tutte le permutazioni di k elementi realizzabili con elementi
n!
di N (n−k)! e si divide per il numero di permutazioni dei k elementi presi, pertanto
 
n! n
#(Cn,k (N )) = =
(n − k)! · k! k
1 targhe composte da due lettere, tre cifre, due lettere

3
4 CAPITOLO 1. CALCOLO COMBINATORIO

Proprietà del coefficiente binomiale

• nk = n−k n
 

n n−1 n−1
  
• k = k + k−1

n n
 
• 0 = n =1
n  
n
X n
• (x + y) = · xi · y n−1
i=1
i

n   n  
X n X n
– = · 1i · 1n−1 = 2n
i=1
i i=1
i

Le combinazioni, attraverso il coefficiente binomiale, suddividono l’insieme N in due partizioni; ma se


volessimo suddividere N in r partizioni distinte come dovremmo operare?
Si ragiona per induzione, cioè si sistema la prima partizione, dagli elementi non selezionati si continua
con la seconda partizione e cosı̀ via.
     Pr−2     
n n − n1 n − i=1 ni nr n! n
· ··· · = Qr = coefficiente multinominale
n1 n2 nr−1 nr i=1 ni ! n1 , n2 , . . . , nr

Proprietà del coefficiente binomiale


"   Y r
#
X n k
• (x1 + . . . + xr )n = · xi i
n1 , n2 , . . . , nr i=1
k1 +...+kr =n

  "  Yr
#
X n X n ki
– = · 1 = rn
n1 , n2 , . . . , nr n1 , n2 , . . . , nr i=1
k1 +...+kr =n k1 +...+kr =n

Esercizio 1.1 Quante sono le possibili squadre distinte se ogni squadra contiene 3 giocatori e occorre
realizzare 3 squadre partendo da 9 ragazzi?
 
9 9! 9! 7!
= = 3 3 = = 1680
3, 3, 3 3! · 3! · 3! 3 ·2 3
E se le squadre giocassero nello stesso campionato? (cioè non è più importante conoscere l’ordinamento
delle squadre)
9

3,3,3 9! 9! 7!
= = 4 4 = 2 = 560
3! 3! · 3! · 3! · 3! 3 ·2 3 ·2

Esercizio 1.2 Si hanno n antenne di cui m sono difettose2 .

N = {1, 1, . . . , 1, 0, 0, . . . , 0}
| {z } | {z }
n−m m

F = {il sistema f unziona} ⇒ {non si sono 0 consecutivi}


#(casi f avorevoli a F)
P(F ) =
#(casi possibili)
 
n
#(casi possibili) = #(P(N )) =
m
Ipotizziamo di avere le n − m antenne funzionanti e di interporre al centro le m antenne difettose
 
n−m+1
#(casi f avorevoli a F ) = #(Cn−m+1,m ) =
m
n−m+1

m
P(F ) = n
m

2 antenna difettosa è indicata come 0


1.2. COMBINAZIONI 5

Esercizio 1.3 (Paradosso del compleanno) Abbiamo n studenti tutti nati in anni non bisestili (anni
tutti da 365 giorni).
E = {nessuno f esteggi il compleanno nello stesso giorno}
365!
#(casi f avorevoli a E) (365−n)!
P(E) = =
#(casi possibili) 365n
Se n = 23 si ha la probabilità di circa il 51% di probabilità che almeno due ragazzi compiano il compleanno
nello stesso giorno.
Esercizio 1.4 Ho 7 caramelle da dare a 3 bambini, supponendo che ad ogni bambino vengadata almeno
una caramella; in quanti modi distinti si possono distribuire le caramelle?
Occorre quindi risolvere il seguente sistema

x1 + x2 + x3 = 7
∀i ∈ [1, 3], xi ∈ N+
Dal punto di vista logico, la separazione delle caramelle si può vedere come un separatore interposto tra
le caramelle (facendo cura a non porre due serapatori tra due caramelle, in tal modo ci si garantisce che
ogni bambino riceve almeno una caramella); poichè si hanno 7 caramelle allora si hanno 6 spazi dove
porre i separatori (che nel nostro caso saranno 2), pertanto il problema si riduce a calcolare il numero di
modi distinti di porre 2 separatori in 6 spazi.
6!
#(C6,2 ) = = 15
4! · 2!
Generalizzando il problema a c caramelle e b bambini il numero di distinti di modi è
 
(c − 1)! c−1
#(Cc−1,b−1 ) = =
(b − 1)! · (c − 1 − b + 1)! b−1
Modificando il problema supponendo che i bambini possano anche restare senza caramelle il problema si
riformalizza nel seguente modo 
x1 + x2 + x3 = 7
∀i ∈ [1, 3], xi ∈ N
Con questa nuova riformulazione si hanno b − 1 separatori e le c caramelle; pertanto il calcolo dei modi
distinti per la distribuzione è semplicemente la permutazione di tutti gli elementi dell’insieme
 
9! 9
#(P(N )) = =
7! · 2! 2
Il problema poteva anche essere risolto utilizzando i calcoli precedenti nel seguente modo
b  
X c−1
#(distribuzione caramelle) =
i=1
i−1

Infine generalizzando il problema considerando b bambini e c caramelle


 
(b + c − 1)! b+c+1
#(S) = #(P({|, |, . . . , |, 0, 0, . . . , 0})) = =
| {z } | {z } (b − 1)! · c! b−1
b−1 n

b
X
Un metodo alternativo alla risoluzione del problema xi = c, xi > 0 è quello di distribuire ad ogni
i=1
b
X
bambino una caramella e quindi ci si conduce a risolvere xi = c − b, xi ≥ 0 pertanto si pongono b − 1
i=1
separatori tra c − b caramelle, pertanto tutte le possibili permutazioni sono
 
(c − b + b − 1)! (c − 1)! c−1
#(S) = = =
(b − 1)! · (c − b)! (b − 1)! · (c − b)! b−1
b
X
Nel caso in cui si vuol risolvere il problema xi = c, xi ≥ 0 si può anche pensare a sommare tutte
i=1
le possibili soluzioni considerando che nessun bambino resti senza caramelle, un bambino resti senza
caramelle, . . . , b − 1 bambini restano senza caramelle; ci si riconduce a trattare il seguente problema
( b )! b−1   b−i 
X X X 
# xi = c, xi ≥ 0 = #  xj = c, xj 6= 0 
 
i=1 i=0 j=1
6 CAPITOLO 1. CALCOLO COMBINATORIO

Riducendo il problema a 3 bambini e a 7 caramelle si ha


( 3 )!    
X 3 3
# xi = 7, xi ≥ 0 = · # ({x1 + x2 + x3 = 7, xi > 0}) + · # ({x1 + x2 = 7, xi > 0}) +
i=1
0 1
 
3
+ · # ({x1 = 7, xi > 0}) =
 2    
6 6 3
= +3· + = 15 + 18 + 3 = 36
2 1 2
Capitolo 2

Assiomi della probabilità

Ci si interessa di eventi/fenomeni il cui risultato non può essere previsto con certezza.

Definizione 2.1 [Spazio campionario] Lo spazio campionario, S, è l’insieme di tutti i possibili esiti
dell’esperimento preso in esame.

Definizione 2.2 [Evento] Un evento, E, è un sottoinsieme di S.

Si richiede che la famiglia degli eventi deve essere chiusa rispetto all’unione e al complementare.
Definizione 2.3 [Tipi di eventi] Un evento
∅ si dice impossibile
S si dice certo
Dati due eventi E e F si definiscono:
• l’evento unione, E ∪ F , l’evento che contiene tutti i risultati di E e di F (si verifica almeno uno
dei due eventi)
• l’evento intersezione, E ∩ F , l’evento che contiene tutti i risultati comui di E e di F (si verificano
entrambi gli eventi)
• l’evento complementare,
 E C , l’evento che contiene tutti i risultati di S che non sono contenuti in
C
E E = S\E
• l’evento differenza, E − F = E ∩ F C , contiene tutti i risultati di E che non sono risultati di F
Inoltre data una successione di eventi di S {En , n ≥ 1} si definisce
+∞
[
• En , l’evento unione degli eventi che si verifica quando almeno uno degli eventi si verifica
n=1

+∞
\
• En , l’evento intersezione degli eventi che si verifica quando tutti gli eventi si verificano
n=1

Due eventi si definiscono incompatibili se non hanno risultati comuni, cioè E ∩ F = ∅




Proprietà algebriche di unione e intersezione


commutativa E ∩ F = F ∩ E E∪F =F ∪E
associativa E ∩ (F ∩ G) = (E ∩ F ) ∩ G) E ∪ (F ∪ G) = (E ∪ F ) ∪ G)
distributiva E ∩ (F ∪ G) = (E ∩ F ) ∪ (E ∩ G) E ∪ (F ∩ G) = (E ∪ F ) ∩ (E ∪ G)
n
!C n n
!C n
\ [ [ \
leggi di De Morgan Ei = EiC Ei = EiC
i=1 i=1 i=1 i=1

7
8 CAPITOLO 2. ASSIOMI DELLA PROBABILITÀ

2.1 Definizione assiomatica di probabilità


Definizione 2.4 Dati uno spazio campionario, S, e una famiglia di eventi, E, una misura di probabilità,
probabilita, è una funzione degli eventi che soddisfa i seguenti assiomi:
A1 0 ≤ P(E) ≤ 1
A2 P(S) = 1
A3 Se {En , n ≥ 1} è una successione di eventi a due a due incompatibili1 , allora
+∞
! +∞
[ X
P Ei = P(Ei ) additività numerabile
i=1 i=1

Dagli assiomi seguono le seguenti proprietà


P1 P(∅) = 0

Dimostrazione 2.1 Sia E1 = S, ∀n > 1, En 6= 0, dall’assioma A3 si ha che


+∞
! +∞ +∞
[ X X
P En = P(S) + P(∅) = 1 + P(∅)
n=1 n=2 n=2

poichè 0 ≤ P(E) ≤ 1 si ha che


+∞
X
P(∅) ⇒ P(∅) = 0
n=2

P2 Se E1 , E2 , . . . , En sono eventi a due a due incompatibili allora


n
! n
[ X
P Ei = P(Ei ) additività finita
i=1 i=1

Dimostrazione 2.2 Applicando l’assioma A2 con Ei = ∅, ∀i > n e sfruttando la proprietà P 1 si


ha che ! ! +∞
n
[ +∞
[ X n
X +∞
X Xn
Ei = Ei = P(Ei ) = P(Ei ) + P(∅) = P(Ei )
i=1 i=1 i=1 i=1 j=n+1 i=1

P3 P(E C ) = 1 − P(E)

Dimostrazione 2.3 Si osserva che S = E ∪ E C e che E ∩ E C = ∅


1 = P(S) = P(E ∪ E C ) = P(E) + P(E C ) ⇒ P(E C ) = 1 − P(E)

P4 Se E ⊂ F allora P(E) ≤ P(F )

Dimostrazione 2.4 Si osserva che F = E ∪ (F − E) e che E ∩ (F − E) = ∅


P(F ) = P(E ∪ (F − E)) = P(E) + P(F − E) ≥ P(E)

P5 P(E ∪ F ) = P(E) + P(F ) − P(E ∩ F )

Dimostrazione 2.5 Si osserva che F = (F ∩ E) ∪ (F ∩ E C ) e che E ∪ F = E ∪ (F ∩ E C ); gli


eventi F e E ∪ F , in base alla definizione data, sono realizzati come unione di eventi incompatibili
P(F ) = P(F ∩ E) + P(F ∩ E C )
P(E ∪ F ) = P(E ∪ (F ∩ E C )) = P(E) + P(F ∩ E C ) ⇒ P(E ∪ F ) = P(E) + P(F ) − P(E ∩ F )

1E ∩ Em = ∅, n 6= m
n
2.1. DEFINIZIONE ASSIOMATICA DI PROBABILITÀ 9

2.1.1 Principio di inclusione-esclusione


n
! n n
!
[ X X X \
n−1
P Ei = P(Ei ) − P(Ei ∩ Ej ) + P(Ei ∩ Ej ∩ Ek ) + . . . + (−1) ·P Ei
i=1 i=1 i<j i<j<k i=1

Esercizio 2.1 (Problema delle corrispondenze) N coppie (uomo/donna) vanno ad una lezione di
tango argentino. Supponendo che le coppie di ballo si formino casualmente, si calcoli la probabilità che:
1. nessun uomo stia ballando con la propria partner
2. esattamente k uomuni stiano ballando con la propria partner
Supponendo che gli uomini restino fermi il numero di possibili accoppiamenti è dato dal numero di
permutazioni distinte delle donne, il numero di possibili accoppiamenti è quindi

#({1, 2, . . . , N }) = N !

Svolgimento
1. Definendo l’evento Ei = {l’uomo i balla con la propria moglie}
N
!
[
P(nessun uomo balla con la moglie) = 1 − P(almeno uno balla con la moglie) = 1 − P Ei
i=1

N
! N N
!
[ X X X \
P Ei = P(Ei ) − P(Ei ∩ Ej ) + P(Ei ∩ Ej ∩ Ek ) + . . . + (−1)N −1 · P Ei
i=1 i=1 i<j i<j<k i=1

Nel caso in cui solo una coppia sia sistemata occorre ancora disporre N − 1 donne, pertanto si ha
(N − 1)!
P(Ei ) =
N!
Nel caso in cui solo due coppie siano sistemate occorre ancora disporre N − 2 donne, pertanto si ha
(N − 2)!
P(Ei ∩ Ej ) =
N!
Come è chiaro nel caso di c coppie (con c ≤ N ) sistemate occorre disporre N − c donne, pertanto
si ha
−c
N\
!
(N − c)!
P Ei =
i=1
N!
pertanto
N
! N
[ X (N − 1)! X (N − 2)! X (N − 3)! 1
P Ei = − + + . . . + (−1)N −1 · =
i=1 i=1
N ! i<j
N ! N ! N !
i<j<k

   
N (N − 2)! N (N − 3)! 1
=1− · + · + . . . + (−1)N −1 · =
2 N! 3 N! N!

N
1 1 1 X 1
=1− + + . . . + (−1)N −1 · = (−1)i+1 ·
2! 3! N! i=1
i!

N N
i+1 1 1
X X
P(nessun uomo balla con la moglie) = 1 − (−1) · = (−1)i ·
i=1
i! i=2
i!
Se il numero di coppie tende ad infinito si ha che la probabilità che nessun unomo balla con la
propria moglie si ha una probabilità di 1e .
k
! N
!!
\ \
C
2. P(k uomini ballano con la propria moglie) = P Ei ∩ Ei
i=1 i=k+1

N −k
X 1
P(nessuno degli N-k uomini stia ballano con la propria moglie) = (−1)i ·
i=2
i!
10 CAPITOLO 2. ASSIOMI DELLA PROBABILITÀ

#(A)
poichè P(A) = ⇒ #(A) = #(possibili) · #(A)
#(possibili)
N −k
X 1
k
! N
!! (N − k)! · (−1)i ·
\ \ i=2
i! N 
P Ei ∩ EiC = · =
i=1
N! k
i=k+1

N −k N −k
(N − k)! X 1 N! 1 X 1
= · (−1)i · · = · (−1)i ·
N! i=2
i! (N − k)! · k! k! i=2
i!

Definizione 2.5 [Probabilità uniforme] Si ha probabilità uniforme se tutti i possibili eventi, Si , di uno
spazio campionario, S = {s1 , s2 , . . . , sn }, sono eventi incompatibili ed equamente probabili.
n
! n n
[ X X 1
P(si ) = c ⇒ 1 = P(S) = P si = P(si ) = c=n·c⇒c=
i=1 i=1 i=1
n

Esercizio 2.2 Un’urna contiene 6 palline bianche e 5 nere. Se ne estraggono 3 a caso, calcolare la
probabilità che ne vengano estrette 1 bianca e 2 nere.
   
6 5
·
1 2 4
P(E) =   = = 0.36
11 11
3

Esercizio 2.3 Calcolare la probabilita di ottenere i punteggi del poker (coppia, doppia coppia, tris, full,
poker, colore, scala semplice, scala reale) con le 5 carte servite dal mazzo.
10 · 4
P(scala reale) = 52

5

10 · (45 − 4)
P(scala semplice) = 52

5
13
  
4· 5 − 10
P(colore) = 52

5
4

13 · 4 · 48
P(poker) = 52

5
4 4
 
13 · 3 · 12 · 2
P(f ull) = P(tris + coppia) = 52

5
13 4 4
  
2 · 2 · 2 · 48 · 4
P(doppia coppia) = 52

5
4 12
 
13 · 3 · 2 · 42
P(tris) = 52

5
4 12
 
13 · 2 · 3 · 43
P(coppia) = 52

5

Prosizione 2.1 Se {En , n ≥ 1} è una successione di eventi monotona allora


 
P lim En = lim P (En )
n→+∞ n→+∞

Dimostrazione 2.6 Sia {En , n ≥ 1} una successione crescente, cioè E1 ⊂ E2 ⊂ . . . ⊂ En (eventual-


mente E1 ⊆ E2 ⊆ . . . ⊆ En )
+∞
[
lim En = En
n→+∞
n=1
2.1. DEFINIZIONE ASSIOMATICA DI PROBABILITÀ 11

poichè En contiene tutti gli eventi E1 , E2 , . . . , En−1

Si “costruisce” una successione ausiliaria

F1 = E1 F2 = E2 \E1 = E2 ∩E1C F3 = E3 \E2 = E3 ∩E2C C


Fn = En \En−1 = En ∩En−1 , ∀n ∈ N+

per costruzione la successione {Fn , n ≥ 1} è composta da elementi disgiunti/incompatibili


  +∞
! +∞
! +∞
σ−additività
[ [ X
P lim En =P En = P Fn = P(Fn ) =
n→+∞
n=1 n=1 n=1

m m
!
X additività finita [
= lim P(Fn ) = lim P Fn =
m→+∞ m→+∞
n=1 n=1

= lim P(Em )
m→+∞

Sia {En , n ≥ 1} una successione decrescente, cioè E1 ⊃ E2 ⊃ . . . ⊃ En (eventualmente Ei ⊇ E2 ⊇ . . . ⊇ En )


+∞
\
lim En = En
n→+∞
n=1

poichè Ei contiene tutti gli eventi Ei+1 , Ei+2 , . . .

Utilazzando la successione {EnC , n ≥ 1} si osserva che tale successione è crescente, pertanto poichè
+∞
!C +∞
[ \
EnC = En (legge di De Morgan)
n=1 n=1

    m
! m
!
[ \
P lim En =1−P lim EnC = 1 − lim P Fn = 1 − lim P EnC =
n→+∞ n→+∞ m→+∞ m→+∞
n=1 n=1

m
!
\
= lim P En = lim P(En )
n→+∞ m→+∞
n=1

Esercizio 2.4 Calcola la probabilità che

E1 = {somma 7 con il lancio di 2 dadi}

E2 = {somma 12 con il lancio di 3 dadi}


Supponendo i dadi bilanciati si definisce lo spazio campionario S1 = {(i, j) : i, j ∈ {1, 2, 3, 4, 5, 6}}, S2 =
{(i, j, k) : i, j, k ∈ {1, 2, 3, 4, 5, 6}}
#(S1 ) = 62 = 36
6

#(i + j = 7) soluzioni intere dell’equazione 1 6 1
P(i + j = 7) = = = =
#(S1 ) 36 36 6
#(S2 ) = 62 = 36
#(i + j + k = 12)
P(i + j + k = 12) =
#(S1 )
#(i + j + k = 12) = 11

2 = 55, considera anche le soluzioni in cui xi > 6; pertanto è necessario eliminare
tale soluzioni. Prestando attenzione alla natura del problema si nota che una sola variabile può essere
superiore a 6; definendo quindi x1 = x1 + 6, x1 > 0
 
5
3 · #(x1 + 6 + x2 + x3 = 12) = 3 · #(x1 + x2 + x3 = 6) = 3 · = 30
2

pertanto si ha
55 − 30 25
P(E2 ) = P(i + j + k = 12) = =
216 216
12 CAPITOLO 2. ASSIOMI DELLA PROBABILITÀ

Esercizio 2.5 Un’urna contiene una pallina rossa e tutte le altre bianche (in totale le palline sono n).

rossa bianche
U = { 1 , 2, 3, 4, . . . , n}

Si effettuano k estrazioni, calcolare la probabilità che si verifichi E

E = {venga estratta la palla rossa}

Poichè non è influente l’ordine di estrazione allora lo spazio campionario S = Cn,k


 
n
#(S) =
k
n−1

k−1 (n − 1)! k! · (n − k)! k
P(E) = n
 = · =
k
(k − 1)! · (n − k)! n! n

Esercizio 2.6 Sei persone X = {A, B, C, D, E, F } si devono mettere in fila. Calcolare

1. in quanti modi possono si possono ordinare in fila indiana

2. im quanti si possono ordinare intorno ad un tavolo rotondo

3. la probabilità che E1 = {C e F siano vicini in fila indiana}

4. la probabilità che E2 = {C e F siano vicini vicino al tavolo rotondo}

1. Il numero di file indiane distinte è dato dal numero di permutazioni degli elementi, pertanto sono
P(X) = 6! = 720

2. due ordinamento attorno al tavolo rotondo sono diversi se ad almeno una persona ha i due vicini
diversi; pertanto

ABCDEF BCDEF A CDEF AB DEF ABC EF ABCD F ABCDE


F EDCBA AF EDCB BAF EDC CBAF ED DCBAF E EDCBAF

indicano lo stesso ordinamento attorno al tavolo. In definitiva quindi ad ogni ordinamento attorno
al tavolo corrispondono 12 file indiane distinte e quindi

6! 5!
#(ordinamenti attorno al tavolo) = = = 60
12 2

3. affinchè C e F siano vicini si può considerare la coppia (C, F ) come un unico blocco e poi permutare
gli elementi del blocco

#(numero di ordinamenti con C, F vicini) = 2 · 5! = 240

2 · 5! 1
P(E1 ) = =
6! 3
4. considerando le osservazioni fatte nel punto 2 si ha che

#(numero di ordinamenti con C, F vicini)


#(numero di ordinamenti con C, F vicini (tavolo rotondo)) =
12
6 · 2 · 4!
12 6 · 2 · 4! 2
P(E2 ) = = =
6! 6! 5
12
Esercizio 2.7 In quanti modi si possono distribuire 4 libri a 7 bambini?

0
#({(x1 , x2 , x3 , x4 ), xi ∈ {1, 2, 3, 4, 5, 6, 7}, ∀i}) = D7,4 = 74 = 2401
Se ad ogni bambino si può dare al massimo un libro si ha

7!
#({(x1 , x2 , x3 , x4 ), ∀i, xi ∈ {1, 2, 3, 4, 5, 6, 7}, i 6= j, xi 6= xj }) = D7,4 = = 7 · 6 · 5 = 210
3!
2.1. DEFINIZIONE ASSIOMATICA DI PROBABILITÀ 13

Esercizio 2.8 Due dadi equi vengono lanciati ripetutamente. Quale è la probabilità che

E = {la somma 5 arrivi prima della somma 7}

Si definisce quindi En = {somma 5 all’n-esimo lancio}


+∞
! +∞ +∞ +∞  n
[ X X 26n−1 · 4 4 X 26 1 1 1 18 2
P(somma 5) = P En = P(En ) = n
= · = · 13 = · =
n=1 n=1 n=1
36 36 n=1 36 9 1 − 18 9 18 − 13 5

Poichè si lanciano due dadi in contemporanea, una per la somma 5 e una per la somma 7, si ha al
denominatore 36n ; inoltre poichè fino all’(n − 1)-esimo lancio non si ha somma 5 o 7 si hanno 26 casi
in cui non si ha tale somma, inoltre il 4 è il numero di coppie che formano la somma 5.

Esercizio 2.9 Una persona parte da A per arrivare in B (i passi possibili sono solo verso destra e verso
l’alto).
Se tutti i percorsi sono equiprobabili quale è la probabilità di passare per P ?

B
P

Figura 2.1: Griglia

Per giungere da A a B è necessario effettuare 3 passi in alto e 4 passi verso destra; perstanto il
numero di percorsi distinti sono
   
7! 7 7
#(P({D, D, D, D, A, A, A})) = = =
3! · 4! 3 4
7

3 può essere inteso come il numero di scelte dei passi in cui andare in alto.
7
4 può essere inteso come il numero di scelte dei passi in cui andare verso destra.

4
 3
2 · 1 4! · 3 3! · 4! 18
P(passo per P ) = 7
 = · =
3
2! · 2! 7! 35

Esercizio 2.10 Una persona ha 8 amici (N = {1, 2, 3, 4, 5, 6, 7, 8}), decide di invitare alla sua festa solo
5 amici.
1. in quanti modi li può invitare se 2 amici non possono essere invitati insieme
2. in quanti modi li può invitare se 2 amici sono una coppia (o li si invitano entrambi o non li si
invita)

insiemi che contengono


quelli che non possono
tutti essere invitati insieme
   
8 6
1. − = 36
5 3

insiemi che non contengono gruppi che contengono


quelli che non possono uno solo di quelli che
essere invitati insieme non essere invitati insieme
     
6 2 6 6! 2 · 6!
+ · = · = 6 + 2 · 15 = 36
5 1 4 5! · 1! 2! · 4!

coppia non
 invitata coppia
 invitata

6 6
2. + = 6 + 20 = 26
5 3
14 CAPITOLO 2. ASSIOMI DELLA PROBABILITÀ

Esercizio 2.11 Un esame è composto da 5 quesiti scelti a caso tra 10 disponibili. Uno studente sa
risolvere esattamente 7 di 10 problemi.
Calcolare la probabilità che si verifiche E1 = {risponde esattemente a 5 quesiti},
E2 = {risponde ad almeno 4 quesiti}
 
7 7!
5 1
P(E1 ) =   = 5! · 2! =
10 10! 12
5 5! · 5!

   
7 7 7! 7!
·3+ ·3+
P(E2 ) =
4
 
5
= 3! · 4! 2! · 5! = 1
10 10! 2
5 5! · 5!

Esercizio 2.12 Un armadio contiene 10 paia di scarpe. Scegliendo 8 scarpe a caso calcolare la probabilità
che si verifichi

1. E1 = {non si scelga un paio completo di scarpe}

2. E2 = {ci sia esattamente un paio completo di scarpe}

 
10
· 28
8 384
1. P(E1 ) =   = , 28 indica la possibilità di scelta tra scarpa destra o sinistra delle 8
20 4119
8 
scarpe prese, 108 indica il numero di possibili scarpe prese

 
9
10 · · 26
6 1792
2. P(E2 ) =   =
20 4199
8

Esercizio 2.13 Vi sono 100 studenti di cui

• 28 studiano spagnolo

• 26 studiano francese

• 16 studiano tedesco

di questi

• 12 studiano spagnolo e francese

• 6 studiano francese e tedesco

• 4 studiano spagnolo e tedesco

• 2 studiano spagnolo, francese e tedesco

#(S) = 28 #(F ) = 26 #(T ) = 16

#(S ∩ F ) = 12 #(S ∩ T ) = 4 #(F ∩ T ) = 6 #(S ∩ F ∩ T ) = 2


2.1. DEFINIZIONE ASSIOMATICA DI PROBABILITÀ 15

Figura 2.2: Rappresentazione insiemistica degli studenti

Calcolare la probabilità che


1. E1 = {si prenda uno studente che studi almeno una lingua}

2. E2 = {si prenda uno studente che non stidia alcuna lingua}


3. E3 = {si prenda uno studente che studia una sola lingua}
4. E4 = {presi a caso due studenti almeno uno studi almeno una lingua}
#(S)+#(F −S)+#(T −S−F ) 28+14+8 1
1. P(E1 ) = #(S∪F ∪T ) = 100 = 2

1
2. P(E2 ) = 1 − P(E1 ) = 2

#(S−F −T )+#(F −S−T )+#(T −S−F ) 14+10+8 8


3. P(E3 ) = #(S∪F ∪T ) = 100 = 25

50

2 149
4. P(E4 ) = 1 − P(nessuno studi alcuna lingua) = 1 − 100
 =
2
198
16 CAPITOLO 2. ASSIOMI DELLA PROBABILITÀ
Capitolo 3

Probabilità condizionata

Questo approccio operativo consente il calcolo della probabilità di eventi di cui si hanno informazioni
parziali; può anche essere adottato nella risoluzione di calcolo di probabilità di eventi complessi (realiz-
zando appositamente eventi che ne semplificano il lavoro).

Esempio 3.1 Si lanciano due dadi. Calcolare la probabilità che si verifichi E = {la somma dei due dadi è 8}.

5
P(E) =
36
Supponiamo ora che il primo dado ha valore 6 calcolare nuovamente P(E).
Si pone F = {primo dado vale 6}
#(E ∩ F ) 1
P(E|F ) = =
#(F ) 6

Prosizione 3.1 (Probabilità condizionata) Sia F un evento non trascurabile1 e sia E un evento
allora la probabilità dell’evento E condizionato da F (cioè ponendo che si sia già verificato F ) è

P(E ∩ F )
P(E|F ) =
P(F )

Esempio 3.2 Una moneta equa viene lanciata due volte. Si calcoli la probabilità che E = {si ottengono due teste}
condizionatamente a

F = {primo lancio è testa} G = {si ha almeno una volta testa}

Lo spazio campionario S = {(T, T ), (T, C), (C, T ), (C, C)}

Prosizione 3.2 (Formula del prodotto, 2 eventi) Si osserva che dalla formulazione della probabilità
condizionata si ha che
P(E ∩ F ) = P(F ) · P(E|F )
T 
n−1
Definizione 3.1 [Formula del prodotto, n eventi] Sia {En , n ≥ 1} e sia P i=1 E i > 0 allora

n
! n−1
!
\ \
P Ei = P(E1 ) · P(E2 |E1 ) · P(E3 |E1 ∩ E2 ) . . . P En | Ei
i=1 i=1

Si può dimostrare
T talerelazione applicando la probabilità condizionata, inoltre si può osservare che la
n−1
condizione P i=1 Ei > 0 è sufficiente per poter definizre tutte le probabilità condizionate coinvolte
nella formula.

Esempio 3.3 Un’urna contiene 8 palline rosse e 4 bianche.


Estraendo 4 palline senza reinserimento quale è la probabilità che si verifichi E?

E = {estratte due palline rosse e una bianca}


1 cioè con probabilità non nulla

17
18 CAPITOLO 3. PROBABILITÀ CONDIZIONATA

Si definiscono due eventi

Ri = {rossa all’i-esima estrazione} Bi = {bianca all’i-esima estrazione}

In questo modo
P(E) = P(B1 ∩ R2 ∩ R3 ) ∪ P(R1 ∩ B2 ∩ R3 ) ∪ P(R1 ∩ R2 ∩ B3 )
poichè gli eventi sono incompatibili si sostituisce l’unione con la somma (additività finita)

P(E) = P(B1 ∩ R2 ∩ R3 ) + P(R1 ∩ B2 ∩ R3 ) + P(R1 ∩ R2 ∩ B3 )


4 8 7 28
P(B1 ∩ R2 ∩ R3 ) = P(B1 ) · P(R2 |B1 ) · P(R3 |B1 ∩ R2 ) = · · =
11 11 10 165
4 8 7 28
P(R1 ∩ B2 ∩ R3 ) = P(R1 ) · P(B2 |R1 ) · P(R3 |R1 ∩ B2 ) = · · =
11 11 10 165
4 8 7 28
P(R1 ∩ R2 ∩ B3 ) = P(R1 ) · P(R2 |R1 ) · P(B3 |R1 ∩ R2 ) = · · =
11 11 10 165
Pertanto
28 84
P(E) = 3 · =
165 165
Esempio 3.4 (Bridge) Un mazzo di 52 carte viene suddiviso in 4 mazzetti di 13 carte ciascuno. Cal-
colare la probabilità che si verifichi E = {un asso in ogni mazzetto}
Si definiscono i seguenti eventi

E1 = {asso di picche in 1 dei mazzetti}


E2 = {asso di picche e cuori in 2 mazzetti distinti}
E3 = {asso di picche, cuori e fiori in 3 mazzetti distinti}
E4 = {asso di picche, cuori, fiori e quadri in 4 mazzetti distinti}

P(E) = P(E4 ) = P(E1 ∩ E2 ∩ E3 ∩ E4 ) = P(E1 ) · P(E2 |E1 ) · P(E3 |E1 ∩ E2 ) · P(E4 |E1 ∩ E2 ∩ E3 )
P(E1 ) = 1

39
P(E2 |E1 ) =
51
26
P(E3 |E1 ∩ E2 ) =
50
13
P(E4 |E1 ∩ E2 ∩ E3 ) =
49
39 · 26 · 13 3! · 48! 13
P(E) = = 13 · = 51
51 · 50 · 49 51! 3

Prosizione 3.3 Dato uno spazio campionario S, una famiglia di eventi, una probabilità e un evento non
trascurabile, F allora P(· · · |F ) è una misura di probabilita sullo spazio campionario S.

Dimostrazione 3.1 Per verificare se P(· · · |F ) è una misura di probabilità occorre verificare la validità
degli assiomi
P(E∩F )
A1 ∀E ∈ S, 0 ≤ P(E|F ) = P(F ) ≤1
P(E∩F )
P(F ) ≤ 1 poichè (E ∩ F ) ⊂ F pertanto P(E ∩ F ) ≤ P(F )
P(S∩F )
A2 P(S|F ) = P(F ) = PP(F )P(F ) = 1

A3 Se {En , n ≥ 1} è una successione di eventi a due a due incompatibili allora


" +∞ ! # +∞
[ X
P En |F = P(En |F )
n=1 n=1
" +∞
! # " +∞ #
[ [
" +∞
! # P En |F P (En |F ) +∞ +∞
[ n=1 n=1
X P(En |F ) X
P En |F = = = = P(En |F )
n=1
P(F ) P(F ) n=1
P(F ) n=1
19

Prosizione 3.4 (Formula delle probabilità totali) Sia 0 < P(F ) < 1 allora per ogni evento E vale

P(E) = P(F ) · P(E|F ) + P(F c ) · P(E|F c )

Dimostrazione 3.2 É possibile scrivere l’evento E come l’unione di due eventi incompatibili

E = E ∩ (F ∪ F c ) = (E ∩ F ) ∪ (E ∩ F c )

P(E) = P(E ∩ F ) + P(E ∩ F c ) = P(F ) · P(E|F ) + P(F C ) · P(E|F c )

Definizione 3.2 [Generalizzazione della formula delle probabilità totali] Si può generalizzare la formula
delle probabilità totali prendendo una partizione di S
n
[
S= Fi Fi ∩ Fj = ∅, ∀i 6= j
i=1

n
X
P(E) = P(Fi ) · P(E|Fi )
i=1

Prosizione 3.5 (Formula di Bayes) Si consideri una partizione S formata da n eventi F1 , F2 , . . . , Fn


non trascurabili; sia inoltre E un evento di probabilità non nulla allora

P(Fj ) · P(E|Fj )
∀Fj , P(Fj |E) = n
X
P(Fi ) · P(E|Fi )
i=1

Dove
• Fi rappresenta le ipotesi alternative
• P(Fj ) è la probabilità iniziale (probabilità a priori)
• P(Fj |E) è la probabilità a posteriori

Esercizio 3.1 (Dimostrazione del Gioco Monty Hall)

F = {vinco la macchina}

f = {macchina dietro la porta scelta inizialmente}


1 2 1
Non cambio la scelta P(F ) = P(f ) · P(F |f ) + P(f c ) · P(F |f C ) = 3 ·1+ 3 ·0= 3
1 2 2
Cambio la scelta P(F ) = P(f ) · P(F |f ) + P(f c ) · P(F |f C ) = 3 ·0+ 3 ·1= 3

Si può osservare che cambiare la scelta nel gioco raddoppia la probabilità di vincere la macchina.

Esempio 3.5 Una compagnia assicurativa divide gli assicurati in due gruppi

A = {automobilisti più propensi agli incidenti}

I = {incidente entro l’anno}


É noto poi che
P(A) = 0.3 P(I|A) = 0.4 P(I|Ac ) = 0.2
Si chiede di calcolare la probabilità di incidente entro l’anno; nel caso in cui si ha l’incidente dire quale
è la probabilità che l’automobilista sia più propenso agli incidenti.

P(I) = P(A) · P(I|A) + P(Ac ) · P(I|Ac ) = 0.3 · 0.4 + 0.7 · 0.2 = 0.26

P(A ∩ I) P(A) · P(A|I) 0.12 6


P(A|I) = = = =
P(I) P(I) 0.26 13
20 CAPITOLO 3. PROBABILITÀ CONDIZIONATA

Definizione 3.3 [Eventi indipendenti] Sia S uno spazio campuionario e siano E, F ∈ S. E ed F si


dicondo indipendenti se il verificarsi di F non modifica la probabilita che si verifichi E, cioè

P(E|F ) = P(E)

P(E ∩ F )
P(E|F ) = = P(E) ⇒ P(E ∩ F ) = P(E) · P(F )
P(F )


Corollario 3.1 Se E e F sono indipendenti allora E c e F c sono indipendenti.

Dimostrazione 3.3
eventi
indipendenti
P(E c ∩ F c ) = P ((E ∪ F )c ) = 1 − P(E ∪ F ) = 1 − P(E) − P(F ) + P(E ∩ F ) =
= 1 − P(E) − P(F ) + P(E) · P(F ) =
= 1 − P(E) − P(F ) · [1 − P(E)] = [1 − P(F )] · [1 − P(E)] = P(E c ) · P(F c )

Prosizione 3.6 Se E ⊂ F , E ed F sono indipendenti se e solo se la probabilità di E è nulla o F è


l’evento certo.

Dimostrazione 3.4
P(E) = 0
P(E) = P(E ∩ F ) = P(E) · P(F ) ⇒ P(E) · [1 − P(E)] = 0 ⇔
P(F ) = 1

Definizione 3.4 [Eventi indipendenti, 3 eventi] E, F, G sono indipendenti se

P(E ∩ F ∩ G) = P(E) · P(F ) · P(G)


P(E ∩ F ) = P(E) · P(F )
P(E ∩ G) = P(E) · P(G)
P(F ∩ G) = P(F ) · P(G)


Definizione 3.5 [Eventi indipendenti, n eventi] {Ei , i ∈ [1, n] ∩ N} sono indipendenti se


k
Y
∀i, ∀k ∈ [2, n] ∩ N, P(Ei1 , . . . , Eik ) = P(Eij )
j=1

Esercizio 3.2 Ogni prova ha probabilità di successo p = P(E), le prove sono indipendenti Calcolare

1. la probabilità di almeno un successo

2. k successi nelle prime n prove

3. tutti successi (infinite prove ripetute)

4. avere almeno n successi prima m insuccessi

Si definisce Ei = {successo all’i-esima prova}

1. ! !
n
[ n
\ n
Y
P Ei =1−P Eic =1− P(Eic ) = 1 − (1 − p)n
i=1 i=1 i=1

2.  
k n  
\ \ n
P Ei ∩ EjC  = · pk · (1 − p)n−k
i=1
k
j=k+1
21

3.
+∞
! n
! n
! n 
\ \ \ Y 0 p<1
P Ei =P lim Ei = lim P Ei = lim P(Ei ) = lim pn =
n→+∞ n→+∞ n→+∞ n→+∞ 1 p=1
i=1 i=1 i=1 i=1

4. In questo caso è sufficiente considerare n+m−1 prove. Calcolando la probabilità di avere n successi
si ha la probabilità richiesta

P(E) = P(tra n + m − 1 prove almeno n successi)

Considerando ad esempio n = 2 e m = 3 basta valutare 4 prove; inoltre supponendo che A vince se


(s, s, s, i) e che B vince se (i, s, i, s) (dove i è insuccesso ed s è successo) si può osservare che

(s, s, s, i) ∈ E (i, s, i, s) ∈ E c

poichè E ⇒ F (avere almeno n successi prima m insuccessi) e E C ⇒ F C allora si ha che E = F


pertanto è possibile valutare la probabilità di E (calcolata su un numero finito di prove) al posto di
valutare la probabilità di F (calcolata su un numero infinito di prove).
n+m−1
!
[
P(E) = P {esattamente k successi in n + m − 1 prove} =
k=n
n+m−1
X
= P ({esattamente k successi in n + m − 1 prove}) =
k=n
n+m−1
X  
n+m−1
= · pk · (1 − p)n+m−1−k
k
k=n

Si poteva risolvere lo stesso problema in maniera ricorsiva considerando il seguente problema

P(A vinca | ad A mancano n punti e a B mancano m punti) = pn,m

Dopo la prima partita si ha se


vince A P(A vinca | ad A mancano n − 1 punti e a B mancano m punti) = pn−1,m
vince B P(A vinca | ad A mancano n punti e a B mancano m − 1 punti) = pn,m−1
Pertanto
pn,m = p · pn−1,m + (1 − p) · pn,m−1
Occorre imporre le seguenti condizioni aggiuntive (per rendere consistente il calcolo ricorsivo della
probabilità)
p0,m = 1, ∀m ∈ R+ pn,0 = 0, ∀n ∈ R+

 p · pn−1,m + (1 − p) · pn,m−1
P(E) = pn,m = p0,m = 1, ∀m ∈ R+
pn,0 = 0, ∀n ∈ R+

Esercizio 3.3 Due urne U1 e U2 hanno la seguente composizione

U1 = {4E, 2B} U1 = {3R, 3B}

Lanciando una moneta equa si sceglie l’urna; scelta l’urna si effettuano due estrazioni con reimmissione.
Calcolare
1. P(estrarre due palline rosse)
2. la probabilità che sia stata scelta U1 dato che sono state estratte due palline rosse
Si definisce Ri = {pallina rossa all’i-esima estrazione} pertanto

P(estrarre due palline rosse) = P(R1 ∩ R2 ) = P(R1 , ∩R2 |U1 ) + P(R1 , ∩R2 |U2 )
= P(U1 ) · P(R1 ∩ R2 |U1 ) + P(U2 ) · P(R1 ∩ R2 |U2 ) =
1 4 4 1 3 3 25
= · · + · · =
2 6 6 2 6 6 72
Per la risoluzione del punto 2. occore ricorrere al teorema di Bayes, pertanto si ha
1 4 4
P(U1 ) · P(R1 ∩ R2 |U1 ) 2 · 6 · 6 16
P(U1 |R1 ∩ R2 ) = = 25 =
P(R1 ∩ R2 ) 72
25
22 CAPITOLO 3. PROBABILITÀ CONDIZIONATA

3.1 Dipendenza condizionata


Definizione 3.6 [Dipendenza condizionata] Sia G un evento non trascurabile, E ed F si dicono indi-
pendenti condizionatamente a G se

P(E ∩ F |G) = P(E|G) · P(F |G)

Esercizio 3.4 In seguito all’acquisizione di dati sperimentali si ha che

P(T + |HIV + ) = 0.99 P(T − |HIV − ) = 0.99

dove HIV + = {soggetto sieropositivo} e T + = {test con risultato positivo}; saranno indicati anche
c c
HIV − = HIV + e T − = T + Si ha inoltre che sull’intera popolazione P(HIV + ) = 0.001
Si calcoli

1. P(T + )

2. P(HIV + |T + )

3. P(HIV + |T1+ ∩ T2+ )

1.
P(T + ) = P(HIV + ) · P(T + |HIV + ) + P(HIV − ) · P(T + |HIV − )
 
C
P(T + |HIV − ) = P (T − ) HIV − = 1 − P(T − |HIV − )

P(T + ) = 0.001 · 0.99 + 0.999 · (1 − 0.99) = 0.001 · 0.99 + 0.999 · 0.01 = 0.01098

2.
P(HIV + ) · P(T + |HIV + ) 0.001 · 0.99
P(HIV + |T +) = +
= ≈ 0.09016
P(T ) 0.01098

3.
P(HIV + |T1+ ∩ T2+ ) · P(T1+ ∩ T2+ |HIV + )
P(HIV + |T1+ ∩ T2+ ) =
P(T1+ ∩ T2+ )
P(T1+ ∩ T2+ ) = P(HIV + ) · P(T1+ ∩ T2+ |HIV + ) + P(HIV − ) · P(T1+ ∩ T2+ |HIV − ) =
= P(HIV + ) · P(T1+ |HIV + ) · P(T2+ |HIV + ) + P(HIV − ) · P(T1+ |HIV − ) · P(T2+ |HIV − ) =
= 0.001 · (0.99)2 + 0.999 · (0.01)2
0.001 · (0.99)2
P(HIV + |T1+ ∩ T2+ ) = ≈ 0.00098
0.001 · (0.99)2 + 0.999 · (0.01)2
!
n
\
+ + 0.001 · (0.99)n
pn = P HIV Ti =

i=1
0.001 · (0.99)n + 0.999 · (0.01)n
p3 ≈ 0.99897
p4 ≈ 0.9999896

Esercizio 3.5 In un test a risposta multipla (m risposte)

1
p = P(E) = P(studente conosce la risposta) P(C|E c ) =
m
C = {risposta corretta}

Calcolare probabilità che lo studente conosca la risposta dato che ha risposto correttamente.

P(E) · P(C|E)
P(E|C) =
P(C)

1
P(C) = P(E) · P(C|E) + P(E C ) · P(C|E C ) = p · 1 + (1 − p) ·
m
p·1 m·p
P(E|C) = 1 =
p · 1 + (1 − p) · m
m·p−p+1
3.1. DIPENDENZA CONDIZIONATA 23

Esercizio 3.6 Si hanno tre monete

M1 = (T, T ) M2 = (C, C) M3 = (T, C)

Si sceglie una moneta a caso, la si lancia e da come risultato testa. Calcolare la probabilità che sull’altra
faccia vi sia la croce (cioè che si sia lanciata M3 ).
1
M1 = {scelgo la moneta i}, P(Mi ) =
3
P(M3 ) · P(T |M3 )
P(M3 |T ) =
P(T )
1 1 1 1 1
P(T ) = P(M1 ) · P(T |M1 ) + P(M2 ) · P(T |M2 ) + P(M3 ) · P(T |M3 ) = ·1+ ·0+ · =
3 3 3 2 2
1 1
3 · 2 1
P(M3 |T ) = 1 =
2
3

Esercizio 3.7 Una scatola contiene 3 tipi di lampadine diverse. La probabilità che una lampadina del
primo tipo superi le 1000h è 0.7, per una del secondo tipo è 0.4 e per una del terzo tipo è 0.3

E = {lampadina supera le 1000h} P(E|T1 ) = 0.7 P(E|T2 ) = 0.4 P(E|T3 ) = 0.2

Supponendo che il 20% sia del primo tipo, il 30% sia del secondo tipo e il 50% sia del terzo tipo

P(T1 ) = 0.2 P(T2 ) = 0.3 P(T3 ) = 0.5

Calcolare la probabilita che una lampadina scelta a caso superi e 1000h e calcolare la probabilità che la
lampadina sia del primo tipo sapendo che supera le 1000h.

P(E) = P(T1 ) · P(E|T1 ) + P(T2 ) · P(E|T2 ) + P(T3 ) · P(E|T3 ) =


= 0.2 · 0.7 + 0.3 · 0.4 + 0.5 · 0.3 = 0.41

P(T1 ) · P(E|T1 ) 0.2 · 0.7


P(T1 |E) = = ≈ 0.3415
P(E) 0.41

Esercizio 3.8 Si ha un album con n figurine. In ogni pacchetto di figurine si hanno k figurine.

pi = P(una figurina del pacchetto sia di tipo i), ∀i ∈ [1, n]∩N indipendentemente dalle altre figurine

Supponiamo di acquistare un pacchetto di figurine, calcolare


1. P(Ai ) = P(c’è almeno yna figurina di tipo i nel pacchetto)
2. P(Ai ∪ Aj ), i 6= j

3. P(Ai |Aj ), i 6= j
I tipi delle figurine sono indipendenti, pertanto si può pensare alle prove ripetute con pi come probabilità
di successo e (1 − pi ) come probabilità di insuccesso.
1. P(Ai ) = 1 − P(ACi ) = 1 − (1 − pi )
k


2. P(Ai ∪ Aj ) = 1 − P (Ai ∪ Aj )C = 1 − (1 − pi − pj )k
P(Ai ∩Aj )
3. P(Ai |Aj ) = P(Aj )

P(E ∪ F ) = P(E) + P(F ) − P(E ∩ F ) ⇒ P(E ∩ F ) = P(E) + P(F ) − P(E ∪ F )

P(Ai ∩ Aj ) P(Ai ) + P(Aj ) − P(Ai ∪ Aj ) pi + pj + 1 − (1 − pi − pj )k


P(Ai |Aj ) = = =
P(Aj ) P(Aj ) pj
24 CAPITOLO 3. PROBABILITÀ CONDIZIONATA
Capitolo 4

Variabili Aleatorie

Molto spesso si è interessati a “funzioni” degli esiti degli esperimenti più che agli esiti stessi, ad esempio
• Nel lancio di due dati si può essere interessati alla somma pari a 6, piuttosto che a come si ottiene
tale somma
• Nel caso di n lanci di una moneta, si potrebbe essere interessati al numero di lanci che hanno dato
testa, piuttosto che la sequenza esatta
• ...
Per ogni esempio che si può formulare si può sempre introdurre una funzione degli esiti o variabile alea-
toria.
Di queste variabili aleatorie ne esistono tante ma verranno trattate in dettaglio solo un limitato sottoin-
sieme di esse.
Esempio 4.1 (Passare un esame) Si suppone di provare a passare un esame presentandosi ad ogni
appello con la stessa preparazione e che ogni volta la probabilità di passarlo sia p. Nel caso in cui si venga
bocciati si riprova l’esame all’appello successivo.
Se X è il numero di volte che si ripete l’esame per passarlo si ha

P(X = 1) = P(P ass) = p


P(X = 2) = P(Bocc, P ass) = (1 − p) · p
P(X = 3) = P(Bocc, Bocc, P ass) = (1 − p)2 · p
...
P(X = n) = P(Bocc, . . . , Bocc, P ass) = (1 − p)n−1 · p

Si può osservare che


+∞
X +∞
X
P(X = n) = (1 − p)n−1 · p = 1
n=1 n=1

Pertanto si è certi di passare l’esame, prima o poi.

Definizione 4.1 [Variabile Aleatoria e Legge di X] Dato uno spazio campionario S, una famiglia di
eventi e una probabilità P; una variabile aleatoria è una funzione X : S → R tale che

∀B ⊂ R, {X ∈ B} = {s : X(s) ∈ B}

è un evento.
All’evento {X ∈ B} è associata una probabilita

PX (B) = P(X ∈ B)

PX è una misura di probabilità su R e si chiama legge di X




Definizione 4.2 [Funzione di distribuzione o di ripartizione] Una funzione di distribuzione o di riparti-


zione di una variabile aleatoria1 è una funzione F : R → [0, 1] definita da

F (x) = P(X ≤ x), x ∈ R


1 nel seguito della trattazione variabile aleatoria è abbreviata con v.a.

25
26 CAPITOLO 4. VARIABILI ALEATORIE

F (x) = P(−∞ < X ≤ x) = P(B)

Proprietà 4.1 (Funzione di distribuzione) Una funzione di distribuzione di una v.a. X è


• non decrescente
• continua a destra
• lim F (x) = 0 lim F (x) = 1
x→−∞ x→+∞

4.1 Variabili Aleatorie Discrete


Definizione 4.3 [V.A. Discrete e Supporto di X] Una v.a. X che può assumere un numero finito o al
più numerabile di valori è detta variabile aletoria discreta.
Si definisce supporto di X e lo si indica con X l’insieme dei valori che la variabile X può assumere.


Ad ogni v.a. discreta è associata una funzione di densità discreta p : X → [0, 1]

∀xi ∈ X, p(xi ) = P(X = xi )

Osservazione 4.1 X
∀xi ∈ X, p(xi ) ≥ 0 p(xi ) = 1
xi ∈X

Definizione 4.4 [Valore medio o valor atteso] Sia X una v.a. discreta. Si definisce valore atteso o
media di X la quantità X
E(X) = xi · p(xi )
xi ∈X
2
se la serie è convergente. .


Esempio 4.2 (Valore atteso, dado) Si lancia un dato equo e X è il numero uscito.
Si ha che p(i) = 61 , i = {1, 2, . . . , 6}
1 1 1 1 1 1 1+2+3+4+5+6 21
E(X) = 1 · +2· +3· +4· +5· +6· = = = 3.5
6 6 6 6 6 6 6 6
Esempio 4.3 (Valore atteso, tram) A Melbourne (Australia), non si può acquistare il biglietto a bor-
do del tram.Solo occasionalmente, dei controllori passano e danno una multa ai passeggeri senza biglietto.
Il biglietto costa 2$, la multa è di 30$ e la probabilità di incontrare un controllore è del 5%.
Per minimizzare il costo medio sarebbe necessario comprare il biglietto?
Si definisce C il costo
• Comprando il biglietto il costo ogni volta è C con probabilità 1. Pertanto E(C) = 2 · 1 = 2$
• Non comprando il biglietto il costo è
– C = 0$ se non si incontra il controllore, P(C = 0) = 0.95
– C = 30$ se si incontra il controllore, P(C = 30) = 0.05
Pertanto
E(C) = 0 · 0.095 + 30 · 0.05 = 1.5$

In queste condizioni per minimizzare il costo medio non bisogna comprare il biglietto.

É possibile realizzare una funzione di utilità, U (X), in modo da riuscire meglio a caratterizzare il dif-
ferente atteggiamento degli sperimentatori. Infatti negli esperimenti precendenti si può capire che per
passare un esame uno studente potrebbe anche non essere disposto a farsi bocciare (per tanto vuol ridurre
il numero di bocciature). Utilizzando la funzione di utilità si calcola il valor atteso con E(U (X)).

2 nello svolgimento del corso si supporrà che il valor atteso esiste sempre
4.1. VARIABILI ALEATORIE DISCRETE 27

4.1.1 Trasformazione di una variabile aleatoria discreta


Data una v.a. discreta, X, si può definire una nuova v.a. discreta, Y = g(X). Data la funzione di densità
discreta di X si può ottenere quella di Y per poterla utilizzare nel calcolo del valore atteso di Y .
Esempio 4.4 Sia X una v.a. discreta che assume i valori {−2, −1, 0, 1, 2} e sia Y = X 2 chiaramente
Y assume, quindi, i valori {0, 1, 4} e

P(Y = 4) = P(X = −2) = P(X = 2)


P(Y = 1) = P(X = −1) = P(X = 1)
P(Y = 0) = P(X = 0)

Pertanto
E(Y ) = 0 · P(Y = 0) + 1 · P(Y = 1) + 4 · P(Y = 4)

Proprietà 4.2 Sia X una v.a. aleatoria discreta e g una funzione a valori reali allora il valore atteso di
g(x) se esiste è dato da X
E(g(X)) = g(xi ) · P(xi )
xi ∈X

Proprietà 4.3 (Linearità del valore atteso) Il valore atteso è lineare rispetto a trasformazioni linea-
ri
• E(a · X + b) = a · E(X) + b

Dimostrazione 4.1
X X X X X
E(a·X+b) = (a·xi +b)·p(xi ) = a·xi ·p(xi )+ b·p(xi ) = a· xi ·p(xi )+b· = a·E(X)+b
xi ∈X xi ∈X xi ∈X xi ∈X xi ∈X

• E(f (X) + g(X)) = E(f (X)) + E(g(X)) con f, g funzioni a valori reali.

4.1.2 Varianza
Ogni variabile aleatoria, X, viene completamente caratterizzata dalla distribuzione ma può essere utile
sintetizzare le caratteristiche con delle “misure”. Si può osservare che negli esempi seguenti si ha sempre
un valore atteso nullo ma si può capire che le v.a. sono molto distinte pertanto è chiaro che manca un
valore discriminante, la varianza.
Esempio 4.5
X=0 probabilità = 1
Y = 1 e Y = −1 probabilità = 0.5
Z = 100 e Z = −100 probabilità = 0.5

Definizione 4.5 [Varianza] Sia X una v.a. di media E(X) allora la varianza di X è definita da

V ar(X) = E (X − E(X))2
 

che è indice della variabilità della v.a. .




Proprietà 4.4 La varianza ha le seguenti proprietà


  2
• V ar(X) = E (X − E(X))2 = E(X 2 ) − [E(X)]

Dimostrazione 4.2
   
V ar(X) = E (X − E(X))2 = E X 2 − 2 · E(X) + [E(X)] =
2
= E(X 2 ) − 2 · E(X) · E(X) + [E(X)] = E(X 2 ) − [E(X)]2

• V ar(X) ≥ 0
• V ar(a · X + b) = a2 · V ar(X)
28 CAPITOLO 4. VARIABILI ALEATORIE

Dimostrazione 4.3
   
V ar(a · X + b) = E [a · X + b − E(a ·X + b)]2 = E [a · X + b − a · E(X) − b]2 =
= E a2 · (X − E(X))2 = a2 · E (X − E(X))2 = a2 · V ar(X)

• E(xn ) si chama momento n-esimo, pertanto V ar(X) è il momento secondo centrato


p
• Si può definire la quantità σX = V ar(X), scarto quadratico medio. Si definisce questo coefficiente
che è indice della variabilità di X mantenendo lo stesso ordine di grandezza.

• É possibile trasformare una v.a., X, in una altra v.a. standardizzata,Y , che mantiene le seguenti
caratteristiche
X − E(X)
Y = E(Y ) = 0 V ar(X) = 1
σX

Dimostrazione 4.4
1 E(X)
Y =·X −
σX σX
 
1 E(X) 1 E(X)
E(Y ) = E ·X − = · E(X) − =0
σX σX σX σX
 
1 E(X) 1 V ar(X)
V ar(Y ) = V ar ·X − = 2 · V ar(X) = =1
σX σX σX V ar(X)

4.1.3 Variabili aleatorie discrete notevoli


Variabile aleatoria di Bernoulli
Supponiamo che in un esperimento si sia interessati al verificarsi di un determinato evento che indichiamo
come “successo” che avviene con probabilità p. La funzione X = 1successo è una v.a. discreta che vale

• 1 in caso di successo con probabilità p

• 0 in caso di insuccesso con probabilità 1 − p

Definizione 4.6 [V.a. di Bernoulli] La variabile di Bernoulli di parametro p è X ∼ Be(p) che assume
valori in {0, 1}.
Tale v.a. gode delle seguenti proprietà

 0 x<0
p(0) = 1 − p p(1) = p F (x) = 1 − p 0 ≤ x < 1 funzione di distribuzione
1 x≤1

E(X) = 0 · (1 − p) + 1 · p = p

V ar(X) = E(X 2 ) − [E(X)]2 = p − p2 = p · (1 − p)

Variabile aleatoria binomiale


Siamo interessati al “numero di successi” realizzati in n prove indipendenti, ognuna con probabilità di
successo pari a p.
La v.a. X che conta il numero di successi assume valori in X = {0, 1, . . . , n} e ha
 
n
P((X = k)) = · pk · (1 − p)n−k , k ∈ {0, 1, . . . , n}
k
4.1. VARIABILI ALEATORIE DISCRETE 29

Definizione 4.7 [V.a. Binomiale] La variabile Binomiale di parametri n e p è X ∼ Bi(n, p)3 .


 
n
p(k) = · pk · (1 − p)n−k , k ∈ {0, 1, . . . , n}
k

E(X) = n · p V ar(X) = n · p · (1 − p)

Dimostrazione 4.5 • E(X) = n · p


n n   n
X X n X k · n!
E(X) = k · p(k) = k· · pk · (1 − p)n−k = · pk · (1 − p)n−k =
k k · (k − 1)! · (n − k)!
k=0 k=0 k=1
n n
X n · (n − 1)! k n−k
X (n − 1)!
= · p · (1 − p) =n·p· · pk−1 · (1 − p)n−k =
(k − 1)! · (n − k)! (k − 1)! · (n − k)!
k=1 k=1
n−1
X n − 1 
j=k−1 j n−1−j
= n·p· · p · (1 − p) =n·p
j=0
j

n  
X n
· pk · (1 − p)n−k = (p + 1 − p)n = 1n = 1
k
k=0

• V ar(X) = n · p · (1 − p)
n
X
V ar(X) = V ar(Xi ) = n · p · (1 − p) perchè le Xi sono indipendenti
i=1

Esempio 4.6 (Analisi del Sangue) Un numero N , molto grande, di persone, si deve sottoporre ad
un’analisi del sangue. Sono state pensate 2 procedure

1. ogni persona viene analizzata separatamente, sono necessari N test

2. i campioni di k persone vengono mescolati ed analizzati insieme. Se il test è positivo allora è


necessario effettuare singolarmente il test alle k persone (complessivamente 1 + k prove necessa-
rie); mentre se il test è negativo allora è sufficiente il test effettuato (complessivamente 1 prova
necessaria)

Supponiamo che la probabilità di essere positivi al test sia p per ogniuna delle N persone e che questi
eventi sono indipendenti

1. trovare la probabilità che il test sia positivo per il campione formato dal miscuglio relativo a k
persone

2. qual’è il valore atteso e la varianza del numero di tes necessari, Y , con la seconda procedura? (si
suppone che N sia divisibile per k)

Risoluzione

1.

1 P(almeno 1 dei k è positivo) = q
Xi = Variabile di Bernoulli del i-esimo gruppo
0 P(nessuno dei k è positivo) = 1 − q

1 − q = (1 − p)k Z ∼ Bi(k; p)
| {z }
P(Z=0)

P(test positivo nel gruppo) = P(Z ≥ 1) = 1 − P(Z = 0) = 1 − (1 − p)k


3n ∈ N e p ∈ (0, 1) che assume valori in X = {0, 1, . . . , n}
30 CAPITOLO 4. VARIABILI ALEATORIE

N
2. m = k = #(gruppi di k persone)

m
!
X
Y = m + k · X1 + k · X2 + . . . + k · Xm = m + k · Xi
i=1
| {z }
Bi(m,q)

m
!
X
E(Y ) = k · E Xi + m = k · m · q + m = m · (k · q + 1) = m · [k · (1 − p)k + 1]
i=1

n
! m
!
X X
V ar(Y ) = V ar k · Xi + m = k 2 · V ar Xi = k 2 · m · q · (1 − q)
i=1 i=1

Variabile aleatoria di Poisson


Definizione 4.8 [V.a. di Poisson] La variabile di Poisson di parametro λ è X ∼ P oisson(λ) con λ ∈ R+
è una v.a. discreta che assume valori di X = {0, 1, . . .} e gode delle seguenti proprietà

e−λ · λk
p(k) = k∈X E(X) = λ V ar(X) = λ
k!

+∞ −λ +∞ k
X e · λk X λ
Dimostrazione 4.6 • = e−λ · = e−λ · eλ = 1
k! k!
k=0 k=0

+∞ +∞ +∞
X e−λ · λk X k · e−λ · λk −λ
X λk−
• E(X) = k· = =λ·e · = λ · e−λ · eλ = λ
k · (k − 1)! k · (k − 1)! n=1
(k − 1)!
k=0 k=1

• V ar(X) = E(X 2 ) − [E(X)]2 = E(X 2 ) − E(X) + E(X) − [E(X)]2 = E[X · (X − 1)] + E(X) − [E(X)]2
+∞ +∞ −λ +∞
X X e · λk −λ
X λk−2
E(X · (X − 1)) = k · (k − 1) · p(k) = =e 2
·λ · = λ2 · e−λ · eλ = λ2
(k − 2)! (k − 2)!
k=0 k=2 k=2

V ar(X) = E[X · (X − 1)] + E(X) − [E(X)]2 = λ2 + λ − λ2 = λ

La distribuzione di Poisson può essere vista come una approssimazione della variabile Binomiale, sotto
determinate ipotesi.

Prosizione 4.1 (Legge degli eventi rari) Sia {Xn , n ≥ 1} con Xn ∼ Bi(n, pn ), se

lim pn = 0 lim E(Xn ) = lim (n · pn ) = λ


n→+∞ n→+∞ n→+∞

allora
e−λ · λk
lim pXn (k) =
n→+∞ k!
λ
Dimostrazione 4.7 Lo si dimostra solo nel caso specifico di pn = n

   k  n−k
n λ λ
lim pXn (k) = lim · · 1− =
n→+∞ n→+∞ k n n
n  −k
λk
 
n! λ λ
= lim · · 1− · 1− =
n→+∞ k! · (n − k)! nk n n
n −k
λk
 
n · (n − 1) · . . . · (n − k + 1) λ λ
= · lim · lim 1 − · lim 1 − =
k! n→+∞ nk n→+∞ n n→+∞ n
λk e−λ · λk
= · 1 · e−λ · 1 =
k! k!
4.1. VARIABILI ALEATORIE DISCRETE 31

Esercizio 4.1 Ogni anno la polizia municipale di Londra registra circa 160 omicidi e questo dato è stabile
da 5 anni. Si suppone che ogni omicidio è indipendente dagli altri.
Sembra strano ma questa apparente casualità è in qualche modo predicibile, nel senso che il numero di
omicidi giornalieri si adatta molto bene alla legge di Poisson di parametro λ = 160
365 ≈ 0.44 e quindi si può
calcolare la probabilità di
• un giorno tranquillo (senza omicidi), cioè P(X = 0)
• una settimana tranquilla (senza omicidi)
• a blody sunday, cioè 3 o più omicidi in un giorno
X ∼ P oisson(λ) omicidi giornalieri
Si suppone omogeneità temporale per gli omicidi, pertanto
160 160 0
e− 365 · 365

160
P(X = 0) = = e− 365 ≈ 0.65
0!
P(X ≥ 3)= 1 − P(X ≤ 2) = 1 − (P(X = 0) + P(X = 1)!+ P(X = 2)) =
160 2
− 160 − 160 160 e− 365 · 160365
= 1 − e 365 + e 365 · + ≈ 0.01
365 2
Si considera Y ∼ P oisson 160

365 · 7 , il numero di omicidi in una settimana; pertanto
160
P(Y = 0) = e− 365 ·7 ≈ 0.047

Variabile aleatoria geometrica


Si consideri lo schema delle prove ripetute con una successione infinita di prove indipendenti.
Ogni prova ha 2 esiti possibili: successo (con probaiblità p) o insuccesso (con probabilità 1 − p).
Si ha Xi prova in cui si ha il primo successo
X = {1, 2, . . .} = N+
pX (k) = P(X = k) = (1 − p)k−1 · p, ∀k
+∞
X
Affinchè la funzione di densità sia valida è necessario che pX (k) = 1, infatti
k=1

+∞ +∞ +∞
X X X 1 1
pX (k) = (1 − p)k−1 · p = p · 1−k =p· =p· =1
1 − (1 − p) p
k=1 k=1 k=0

La media vale
+∞
X +∞
X
E(X) = k · pX (k) = k · (1 − p)k−1 · p =
k=1 k=1
 
pX (1)+ pX (2)+ pX (3)+ . . .
= pX (2)+ pX (3)+ . . .  = P(X ≥ 1) + P(X ≥ 2) + P(X ≥ 3) + . . . =
pX (3)+ . . .

+∞ +∞
X X 1
= P(X ≥ k) = (1 − p)k−1 =
p
k=1 k=1

Per il calcolo della varianza si calcola


V ar(X) = E(X 2 ) − [E(X)]2 = E(X 2 ) − E(X) + E(X) − [E(X)]2 = E(X · (X − 1)) + E(X) − [E(X)]2
+∞ +∞
X q=1−p X
E(X · (X − 1)) = k · (k − 1) · p · (1 − p)k−1 = (1 − p) · p · k · (k − 1) · q k−2 =
k=1 k=1
+∞
X
∂2 qk 1
k=1
∂ 2 1−q 2
= (1 − p) · p · = (1 − p) · p · = p · (1 − p) · =
∂q 2 ∂q 2 (1 − q)3
1 1−p
= p · (1 − p) · 3
=2· 2
p p
32 CAPITOLO 4. VARIABILI ALEATORIE

 2
1−p 1 1 2−2·p+p−1 1−p
V ar(X) = E(X · (X − 1)) + E(X) − [E(X)]2 = 2 · + − = =
p2 p p p2 p2

Esempio 4.7 Un’urna contiene N palline di cui m rosse e N − m blu.


Dall’urna vengono estrette, in blocco, n palline. Determinare la legge di X = {numero di palline rosse estratte}.
n
 N −m
k · n−k
P(X = k) = N

k

Per far si che la relazione sopra sia valida è necessario che


 

 k≤n 
 k≤n
k≤m k≤m
 
⇒ ⇒ k ∈ [max(0, n − (N − m)), min(n, m)] ∩ N

 k ≥ 0 
 k≥0
n−k ≤N −m k ≥ n − (N − m)
 

 
m n  m n−1
E(X) = n − V ar(X) = n · · 1− · 1−
N M N N −1

Esempio 4.8 (Indagine) Si hanno N = 40 abitazioni; m = 5 numero di famiglie che si trovano sotto
il livello di povertà; n = 7 numero di famiglie campionate.
Sia X il numero di famiglie sotto il livello di potertà campionati, allora calcolare:

• P(X = 0)

• P(X = 4)

• P(X ≤ 2)

• P(X ≥ 3)
35

7
P(X = 0) = 40

7
5 35
 
4 · 3
P(X = 4) = 40

7
35 5 35 5 35
    
7 + 1 · 6 + 2 · 5
P(X ≤ 2) = pX (0) + pX (1) + pX (2) = 40

7

P(X ≥ 3) = 1 − P(X ≤ 2)

Esempio 4.9 (Modello di cattura e ricattura) Si ha una popolazione di N elementi, N non è noto
ma lo si vuol stimare. Si marchiano m elementi della popolazione e li si lasciano nel gruppo. Dall’intera
popolazione si estraggono n elementi, si hanno quindi k elementi ricatturati che sono marchiati.
m
 N −m
k · n−k
P(X = k) = N

n

Si cerca N tale da massimizzare la probabilità P(X = k) (si ha quindi in questo modo una buona stima
sulla dimensione della popolazione).
Sono noti i parametri k, n ed m (chiaramente si deve avere N ≥ max(n, m)).
Si ha chiaramente che pX (k) è una funzione di N , la si può quindi considerare come successone di aN ;
ci si aspetta che aN sia crescente e da un punto in poi, N̂ , è decrescente.
Si cerca N̂ tale che aN̂ −1 ≥ aN̂

m
 N −1−m
 m
 N −m
 N −1−m
 N −m
 (N −1−m)! (N −m)!
k · n−k k · (n−k)!·(N −1−m−(n−k))! (n−k)!·(N −m−(n−k))!
N −1
 ≥ N
n−k ⇒ n−k
N −1
 ≥ n−k
N
 ⇒ (N −1)!
≥ N!

n n n n n!·(N −1−n)! n!·(N −n)!

N −m
N −m−(n−k) N −n N − m − (n − k) n n−k n n−k
⇒1≥ N
⇒ ≤ ⇒1− ≤1− ⇒ ≥ ⇒
N −n
N N −m N N −m N N −m
N −m n n−k N −m N −m n−k m k m k n·m
⇒ · ≥ · ⇒ ≥ ⇒1− ≥1− ⇒ ≤ ⇒N ≥
n N N −m n N n N n N n k
4.2. VARIABILI ALEATORIE CONTINUE 33
jm · nk
N̂ =
k
N̂ è detta stima di massima verosimiglianza; N̂ è la dimensione più probabile della popolazione presa in
esame.

Sia m = 100, n = 50 e k = {35, 5}


 
100 · 50
N{k=35} = = 142
35
 
100 · 50
N{k=5} = = 1000
5

Esempio 4.10 Un dispositivo scenico è fatto da 5 lampade di potenza diversa N = (40, 50, 75, 100, 200).
Un operatore vede che sono accese le lampade da 40 e da 200; ha a disposizione 5 interrutori e non sa
quale siano gli interruttori a cui corrispondono le lampade accesse. Determinare:

• P(spegne tutte le lampade)

• P(X = k), dove X è il numero di luci spente dopo la manovra dell’operatore X = {1, 3, 5}
3

2 3
P(X = 1) = pX (1) = 5 =
2
10
2

1
P(X = 5) = pX (5) = 25 =
2
10
6
P(X = 3) = 1 − pX (1) − pX (5) =
10
3 6 1 3 + 18 + 5 26
E(X) = 1 · +3· +5· = = = 2.6
10 10 10 10 10
 2
3 6 1 26 1394
V ar(X) = E(X 2 ) − [E(X)]2 = 1 · +9· + 25 · − = = 13.94
10 10 10 10 100

4.2 Variabili aleatorie continue


Supponiamo che X sia una v.a. reale che assume valori in un sottoinsieme continuo di R.

Definizione 4.9 [Variabile aleatoria continua] Una variabile aleatoria, X, si dice continua se esiste
Z
f : R → [0, +∞) : P(x ∈ B) = f (x) · dx
B

con B ⊂ R per cui l’integrale è definito.

Definizione 4.10 [Funzione di densità] f (x) definita nell’integrale di una v.a. continua si dice funzione
di densità.

Proprietà 4.5 Per v.a. continua


Z +∞
P(x ∈ R) = f (x) · dx = 1
−∞

Definizione 4.11 [Funzione di distribuzione] Si definisce funzione di distribuzione F : R → [0, 1]

F (x) = P(X ≤ x)


Z b
Proprietà 4.6 • ∀B = [a, b] P(a ≤ X ≤ b) = f (x) · dx = F (b) − F (a)
a
34 CAPITOLO 4. VARIABILI ALEATORIE

• Per piccoli intervalli B = (x, x + ∆x) (∆x → 0)


Z x+∆x
P(x ∈ B) = f (u) · du ≈ f (x) · ∆x
x

É chiaro che f (x) non è una misura di probabilità.


Z Z x
• P(X = x) = f (u) · du = f (u) · du = 0
{x} x
pertanto la probabilità che la v.a. assuma esattamente un valore (o un numero finito di essi, o
un’infinità numerabili di essi) è sempre nulla; pertanto

P(a ≤ X ≤ b) = P(a < X < b)

Esempio 4.11 Si consideri

C · (4 · x − 2 · x2 ) x ∈ (0, 2)

f (x) =
0 x∈/ (0, 2)

stabilire per quali valori di C la funzione f è una funzione di densità di una v.a. co0ntinua e calcolare
P(X > 1).
Affinchè f sia una funzione di distribuzione occorre imporre
• f (x) ≤ 0, ∀x
Z
• f (x) · dx = 1
R

Poichè 4 · x − 2 · x2 ≥ 0, ∀x ∈ (0, 2) allora è necessario che C ≥ 0


+∞ 2 2 2
x2 x3
Z Z Z   
16 8
f (x)·dx = C·(4·x−2·x2 )·dx = C (4·x−2·x2 )·dx = C· 4 · −2· = C· 8 − = C· = 1
−∞ 0 0 2 3 0 3 3
3
C=
8
Pertanto
3
· (4 · x − 2 · x2 ) x ∈ (0, 2)

f (x) = 8
0 x∈/ (0, 2)
Z +∞ Z 2 Z +∞ Z 2 Z +∞
3 2
P(X > 1) = f (x) · dx = f (x) · dx + f (x) · dx = · (4 · x − 2 · x ) · dx + 0 · dx =
Z1 2 1  2 1 8 2
2
x3
  
3 3 3 8 1 3 2 1
= · (4 · x − 2 · x2 ) · dx = · x2 − = · 4− −1+ = · =
1 8 4 3 1 4 3 3 4 3 2
Si poteva evitare il calcolo esplicito poichè osservando il grafico di f (x) si osserva che f è simmetrica
rispetto alla retta x = 1 pertanto
Z 1 Z +∞
f (x) · dx = f (x) · dx
−∞ 1

e poichè Z +∞ Z 1 Z +∞ Z +∞
1
f (x) · dx = f (x) · dx + f (x) · dx = 1 ⇒ f (x) · dx =
−∞ −∞ 1 1 2

Esempio 4.12 Il tempo di guasto di un dispositivo ha la seguente funzione di densità


x
λ · e− 100 x > 0

f (x) =
0 x≤0

Si determini λ affinchè f sia una funzione di densità e si calcoli P(X > 50).
Poichè f (x) ≥ 0, ∀x ∈ R si ha che λ ≥ 0
Z +∞ Z +∞ Z +∞
x 1 x x +∞
λ·e− 100 ·dx = −100·λ· ·e− 100 ·dx = −100·λ· e− 100 0 = 100·λ = 1

f (x)·dx = −
−∞ 0 0 100
1
λ=
100
4.2. VARIABILI ALEATORIE CONTINUE 35

Pertanto x
1
· e− 100

100 x>0
f (x) =
0 x≤0
Z +∞ Z +∞
1 x x +∞ 50 1
· e− 100 · dx = e− 100 50 = e− 100 = e− 2

P(X > 50) = f (x) · dx =
−∞ 50 100

Esempio 4.13 X è una v.a. continua con funzione di densità fX . Detarminare la funzione di densità
della v.a. Y = 2 · X.
Poichè X è una v.a. continua allora lo è anche Y .
 y y
∀y ∈ R, FY (y) = P(Y ≤ y) = P(2 · X ≤ y) = P X ≤ = Fx
2 2
y 1
fY (y) = FY0 (y) = fx ·
2 2
Per l’ultima relazione si sfrutta la derivata di un integrale definito
Z b(y)
∂ f (x) · dx
a(y) ∂F (b(y)) − F (a(y)) ∂F (b(y)) ∂F (a(y)) ∂b(y) ∂a(y)
= = − = f (b(y)) · − f (a(y)) ·
∂y ∂y ∂y ∂y ∂y ∂y

4.2.1 Valore atteso di una variabile aleatoria continua


Definizione 4.12 [Valore atteso] Se X ha funzione di densità f , allora si definisce valore atteso di X
(se l’integrale esiste)
Z +∞
E(x) = x · f (x) · dx
−∞

Osservazione 4.2 Se X è dice simmetrica rispetto a x0 , cioè se f (x + x0 ) = f (−x − x0 ), il valore atteso



E(X) = x0

Proprietà 4.7 Se X è una v.a. aleatoria continua non negativa, allora


Z +∞ Z +∞ Z +∞
E(x) = P(X > x) · dx = R(X) · dx = (1 − FX (x)) · dx
0 0 0

R(x) è detta funzione di sopravvivenza.

Dimostrazione 4.8
Z +∞ Z +∞ Z +∞  Z +∞ Z u  Z +∞
P(X ≥ x)·dx = fX (u) · du ·dx = dx ·fX (u)·du = u·fX (u)·du = E(x)
0 0 x 0 0 0

Funzione di una variabile aleatoria continua


Spesso si è interessati allo studio di funzione di variabili aleatorie.

Esempio 4.14 Sia X una v.a. continua con funzione di densità fX . Determinarela densità delle variabili
Y = X 2 , T = |X| e Z = a · X + b con a,b ∈ R.

• poichè F (Y < y) = P(Y ≤ y) = P(X 2 ≤ y), se y < 0 allora P(X 2 ≤ y) = 0, mentre



y
√ √
Z
2
FY (y) = P(Y ≤ y) = P(X ≤ y) = P(− y ≤ X ≤ y) = √
fX (x) · dx
− y
( √ 1 √ −1
 1√ √ 
fX ( y) · √
2· y − fX (− y) · √
2· y · fX ( y) + fX ( y) y ≥ 0
= 2·

fY (y) =
0 y<0
(
1
 √ √ 

√ · fX ( y) + fX ( y) y ≥ 0
fY (y) =
0 y<0
36 CAPITOLO 4. VARIABILI ALEATORIE
  +∞
z−b
Z
• FZ (z) = P(a · X + b ≤ z) = P X ≥ = fX (x) · dx, a < 0, b ∈ R
a z−b
a

  Z z−b
z−b a
FZ (z) = P(a · X + b ≤ z) = P X ≤ = fX (x) · dx, a > 0, b ∈ R
a −∞

z−b
· − a1
    
fX a<0 z−b 1
∀a ∈ R\{0}, ∀b ∈ R, fZ (z) = z−b 1
a = fX ·
a · a a>0 a |a|

Prosizione 4.2 (Funzione di densità di una variabile aleatoria composta) Sia X una variabile
aleatoria continua e sia Y = g(X) con g una funzione monotona si ha
−1
−1
∂g (y)
fY (y) = fX (g (y)) ·
∂y

Dimostrazione 4.9 La dimostrazione si suddivide in due casi distinti:

• nel caso in cui g sia monotona crescente si ha


Z g −1 (y)
−1
FY (y) = P(Y ≤ y) = P(g(X) ≤ y) = P(X ≤ g (y)) = fX (x) · dx
−∞

∂g −1 (y)
fY (y) = FY0 (y) = fX (g −1 (y)) ·
∂y

• nel caso in cui g sia monotona decrescente si ha


Z +∞
−1
FY (y) = P(Y ≤ y) = P(g(X) ≤ y) = P(X ≥ g (y)) = fX (x) · dx
g −1 (y)

∂g −1 (y)
fY (y) = FY0 (y) = −fX (g −1 (y)) ·
∂y
−1
Pertanto fY (y) = fX (g −1 (y)) · ∂g ∂y(y)

Prosizione 4.3 Sia X una v.a. continua, con f la sua funzione di densità, e sia g una funzione reale
allora Z +∞
E(g(X)) = g(x) · f (x) · dx
−∞

Dimostrazione 4.10 Lo si dimostra limitatamente al caso in cui ∀x ∈ X, g(x) ≥ 0


Z +∞ Z +∞ Z ! Z +∞ Z g(x) ! Z +∞
E(g(X)) = P(g(X) > y)·dy = fX (x) · dx ·dy = fX (x) · dx ·dy = g(x)·f (x)·dx
0 0 {x: g(x)>y} −∞ 0 −∞

Proprietà 4.8 • E(a · X + b) = a · E(X) + b

Dimostrazione 4.11
Z +∞ Z +∞ Z +∞
E(a · X + b) = (a · x + b) · fX (x) · dx = a · x · fX (x) · dx + b · fX (x) · dx =
−∞Z +∞ −∞
Z +∞ −∞

=a· x · fX (x) · dx + b · fX (x) · dx = a · E(x) + b


−∞ −∞

• E(f (X) + g(X)) = E(f (X)) + E(g(X))


4.2. VARIABILI ALEATORIE CONTINUE 37

Dimostrazione 4.12
Z +∞ Z +∞ Z +∞
E(f (X) + g(X)) = (f (x) + g(x)) · fX (x) · dx = f (x) · fX (x) · dx + g(x) · fX (x) · dx =
−∞ −∞ −∞

= E(f (X)) + E(g(X))

Esempio 4.15 (Tempi di attesa) Supponiamo che il numero di eventi che si verificanp oin un inter-
vallo di tempo [0, t] segue la distribuzione di Poisson, di parametro λ · t.
Mostrare che il tempo di attesa del primo evento è una v.a. continua con

λ · e−λ·x x > 0

fX (x) =
0 x≤0

Inoltre, si trovi la distribuzione del tempo di arrivo dell’n-esimo evento.


Si definisce NT il numero di eventi in [0, t]

e−λ·t · (λ · t)x
NT ∼ P oisson(λ · t) pX (x) =
x!

e−λ·t · (λ · t)0
P(T ≤ t) = 1 − P(T > t) = 1 − P(NT = 0) = 1 − = 1 − e−λ·t
0!
1 − e−λ·t

t>0
fT (t) = FT0 (t)=
0 t≤0
+∞ +∞ −λ·t
t>0
X X e · (λ · t)k
FTn = P(Tn ≤ t) = P(Tn ≤ n) = pNt (k) =
t=n
k!
k=n

+∞ −λ·t
X e · (−λ) · (λ · t)k + e−λ·t · k · (λ · t)k−1 · λ
fTn (t) = FT0 n (t)
= =
n=n
k!
+∞ −λ·t +∞
X e · λ · (λ · t)k X e−λ·t · λ · (λ · t)k−1
=− + =
k! (k − 1)!
k=n k=n
+∞ −λ·t +∞
X e · λ · (λ · t)k X e−λ·t · λ · (λ · t)j
=− + =
k! j=n−1
j!
k=n
+∞ +∞
X e−λ·t · λ · (λ · t)k X e−λ·t · λ · (λ · t)j e−λ·t · (λ · t)n−1 · λ e−λ·t · (λ · t)n−1 · λ
=− + + = , t>0
k! j=n
j! (n − 1)! (n − 1)!
k=n

fTn (t) è un caso particolare di una distribuzione notevole chiamata variabile aleatoria gamma.

Esempio 4.16 Si suppone che si ricevano, in media, 2 chiamate per ora (unità di misura di tempo) e
che si abbia appena finito una telefonata

1. Quale è la probabilità di aspettare per più di un’ora per la prossima telefonata?

2. Qual’è la probabilità di ricevere almeno una telefonata nei prossimi 10 minuti?

3. Qual’è la probablità di aspettare più di 10 minuti e meno di 1 ora per la prossima chiamata?

Dai dati del problema è chiaro che la v.a. da considerare è T ∼ exp(2), pertanto
Z +∞
1. P(T > 1) = 2 · e−2·t · dt = [−e−2·t ]+∞
1 = e−2
1
  Z 1 Z 61
1 6
−2·t
1 1
2. P T < = 2·e · dt + 2 · e−2·t · dt = [−e−2·t ]06 = 1 − e− 3
6 −∞ 0
       
1 1 1 1
P <T <1 = FT (1) − FT = P(T ≤ 1) − P T ≤ = 1 − P(T > 1) − P T ≤ =
3. 6 3 6 6
1 1
= 1 − e−2 − 1 + e− 3 = e− 3 − e−2
38 CAPITOLO 4. VARIABILI ALEATORIE

4.2.2 Variabili aleatorie continue notevoli


Variabile aleatoria esponenziale
Definizione 4.13 [v.a. continua, esponenziale] Una v.a. continua, X, si dice esponenziale di parametro
λ, X ∼ exp(λ), se ha la seguente funzione di densità
λ · e−λ·x x > 0

f (x) =
0 x≤0

Proprietà 4.9 Una v.a. continua di tipo esponenziale ha
1
• E(X) =
λ
Dimostrazione 4.13
Z +∞ Z +∞ Z +∞
−λ·x −λ·x +∞
E(X) = x · f (x) · dx = x·λ·e · dx = [−x · e ]0 + e−λ·x · dx =
−∞ Z 0 0
+∞
1 1
=− · −λ · e−λ·x · dx =
λ 0 λ

1
• V ar(X) =
λ2
Dimostrazione 4.14
V ar(X) = E((X − E(X))2 ) = E(X 2 ) − [E(X)]2
Z +∞ Z +∞ Z +∞
pp
E(X 2 ) = x2 · f (x) · dx = x2 · λ · e−λ·x · dx = [−e−λ·x · x2 ]+∞
0 + 2 · x · e−λ·x · dx =
−∞
Z +∞ 0 Z +∞ 0
2 2
=2· x · e−λ·x · dx = · x · e−λ·x · dx = 2
0 λ 0 λ
2 1 1
V ar(X) = E(X 2 ) − [E(X)]2 = 2 − 2 = 2
λ λ λ

• P(X > s + t|X > s) = P(X > t), proprietà di non memoria della distribuzione esponenziale (utile
per la modellizzazione di apparati non soggetti ad usura)

Dimostrazione 4.15
Z +∞
1 − FX (t) = R(t) = P(X > t) = λ · e−λ·u · du = e−λ·t , t > 0
t

poichè X > s = (X > t + s) ∪ (s < X ≤ t + s) ⇒ (X > t + s) ∩ (X > s) = X > t + s pertanto


P(X > t + s) e−λ·(t+s)
P(X > t + s|X > s) = = = e−λ·t = P(X > t)
P(X > s) e−λ·s

f (x)
• la funzione di rischio è r(x) = = λ, ∀x > 0
1 − F (x)

Dimostrazione 4.16
f (x) λ · e−λ·x
r(x) = = = λ, ∀x > 0
1 − F (x) e−λ·x

Si può interpretare la funzione di rischio come il rapporto tra la memoria della distribuzione esponenziale
e una ampiezza (se questa tende a 0)
P(x ≤ X ≤ x + dx) dx→0 f (x) · dx P(x ≤ X ≤ x + dx|X > x)
P(x ≤ X ≤ x+dx|X > x) = ≈ = r(x)·dx ⇒ r(x) =
P(X > x) 1 − F (x) dx
4.2. VARIABILI ALEATORIE CONTINUE 39

Variabile aleatoria gamma


Definizione 4.14 [v.a. continua, gamma] Una v.a. continua, X, si dice gamma di parametri λ e α,
λ,α > 0, X ∼ gamma(α, λ), se ha la seguente funzione di densità

 λ · e−λ·x · (λ · x)α−1

x>0
f (x) = Γ(α)
0 x≤0

Z +∞
con Γ(α) = xα−1 · e−x · dx
0

Γ(α) = (α − 1) · Γ(α − 1), Γ(1) = 1


se α ∈ N allora Γ(α) = (α − 1)!

Proprietà 4.10 Una v.a. continua di tipo gamma ha


α
• E(X) =
λ
α
• V ar(X) = 2
λ
Dimostrazione 4.17 Una v.a. gamma la si può interpretare come la somma di α distinte v.a. continue
di tipo esponenziale di parametro λ, pertanto
X  α
E(X) = E Ti = α · E(T1 ) =
λ
X  α
V ar(X) = V ar Ti = α · V ar(T1 ) = 2
λ

Variabile aleatoria uniforme


Definizione 4.15 [v.a. continua, uniforme] Una v.a. continua, X, si dice uniforme, di parametro (a, b),
se ha la seguente funzione di densità
( 1
x ∈ (a, b)
f (x) = b−a
0 x∈/ (a, b)


Proprietà 4.11 Una v.a. continua di tipo uniforme ha


b+a
• E(X) =
2
Dimostrazione 4.18 Si ha che a ≤ b (per mantenere la relazione d’ordine dell’insieme (a, b))
+∞ b  2 b
b2 − a2 (b + a) · (b − a)
Z Z
1 1 x b+a
E(X) = x·f (x)·dx = ·x·dx = · = = =
−∞ a b−a b−a 2 a 2 · (b − a) 2 · (b − a) 2

b2 + a · b + a2
• V ar(X) =
3
Dimostrazione 4.19 Si ha che a ≤ b (per mantenere la relazione d’ordine dell’insieme (a, b))

V ar(X) = E(X 2 ) − [E(X)]2


Z +∞ Z b  3 b
1 1 x
E(X 2 ) = x2 · f (x) · dx = · x2 · dx = · =
−∞ a b−a b−a 3 a

b3 − a3 (b − a) · (b2 + a · b + a2 ) b2 + a · b + a2
= = =
3 · (b − a) 3 · (b − a) 3
40 CAPITOLO 4. VARIABILI ALEATORIE


 x − a0
 x<1
• F (x) = x ∈ (a, b)
 b−a

1 x>1

Dimostrazione 4.20 Si ha che a ≤ b (per mantenere la relazione d’ordine dell’insieme (a, b))

F (x) = 0, ∀x < a F (x) = 1, ∀x > b


Z x
1 1 x−a
∀x ∈ (a, b), · du = · (x − a) =
a b − a b−a b−a

 x − a0
 x<1
F (x) = x ∈ (a, b)
 b−a

1 x>1

Variabile aleatoria normale


Definizione 4.16 [v.a. continua, Normale o Gaussiana] Una variabile aleatoria continua, X, si dice
Normale o Gaussiana di parametri µ e σ 2 , X ∼ N (µ, σ 2 ), se
1 (x−µ)2
fX = √ · e− 2·σ 2 ≤ 0, x ∈ R
2 · π · σ2


Dimostrazione 4.21
Z +∞ Z +∞ u= √z2
1 (x−µ)2 z= x−µ 1 z2
√ · e− 2·σ2 · dx σ
= √ · e− 2 · dz =
−∞ 2·π·σ 2
−∞ 2·π
+∞ 2 +∞
e−u
Z Z
1 2 1
= √ · du = √ · e−u · du = √ · π = 1
−∞ π π −∞ π
Z +∞
2
I= e−u · du
−∞
Z +∞ Z +∞ √
2 −(u2 +v 2 )
I = e · du · dv = π ⇒ I = π
+∞ +∞ Z +∞ −∞ −∞
Z +∞

Z Z  
−u2 2 x=u2 1 1 1
π= e · du = 2 · e−u · du = −x
√ · e · dx = x 2 −1 −x
· e · dx = Γ
−∞ 0 0 x 0 2

Proprietà 4.12 In una v.a. continua, X ∼ N (µ, σ 2 ), fX :


• ha valore massimo in x = µ
• è crescente per x ≤ µ ed è decrescente per x ≥ µ
• ha concavità verso l’alto per x ≤ µ − σ ∪ x ≥ µ + σ e concavità verso il basso per x ∈ [µ − σ, µ + σ]

Dimostrazione 4.22
1 (x−µ)2
fX (x) = √ · e− 2·σ 2
2 · π · σ2
 
0 1 (x−µ)2
− 2·σ2 2 · (x − µ) x−µ 1 (x−µ)2
− 2·σ2
fX (x) =√ ·e · − =− · √ · e
2 · π · σ2 2 · σ2 σ2 2 · π · σ2
0 0 0
fX (x) > 0, ∀x < µ fX (x) = 0, x = µ fX (x) < 0, ∀x > µ
" 2 #
1 (x−µ)2 x−µ 1 1 (x−µ)2
00
· e− · e− 2·σ2 · (x − µ)2 − σ 2
 
fX (x) = √ 2·σ 2 · 2
− 2 =√
2 · π · σ2 σ σ 2 · π · σ2 · σ4
00 00 00
fX (x) < 0, ∀x ∈ (µ−σ, µ+σ) fX (x) = 0, ∀x ∈ {x−µ, x+µ} fX (x) > 0, ∀x ∈ R\[µ−σ, µ+σ]
4.2. VARIABILI ALEATORIE CONTINUE 41

Proprietà 4.13 Una variabile esponenziale di tipo normale ha:


• E(X) = µ

Dimostrazione 4.23
Z +∞ +∞  
x−µ
Z
(x−µ) µ (x−µ)
E(X) = x · fX (x) · dx = √ · e− 2·σ 2 +√ · e− 2·σ 2 · dx =
−∞ −∞ 2 · π · σ2 2 · π · σ2
+∞ Z +∞ − (x−µ)2 2
σ·z
Z
z= x−µ z2 e 2·σ
σ
= √ · e− 2 · dz + µ · √ · dx = 0 + µ · 1 = µ
−∞ 2·π −∞ 2 · π · σ2
Z +∞
σ·z z2
√ · e− 2 · dz = 0 perchè la funzione integranda è una funzione dispari
−∞ 2·π

• V ar(X) = σ 2

Dimostrazione 4.24
+∞ +∞ z2
z 2 · e− 2
Z Z
2 2 z= x−µ
σ 2
V ar(X) = E((X − µ) ) = (x − µ) · fX (x) · dx = σ · √ · dz =
−∞ −∞ 2·π

z2
! +∞ Z z2

+∞
p.p. z · e− 2
2
e− 2
= σ · − √ + √ · dz  = σ 2


2·π −∞ 2 · π
−∞

Il calcolo esplicito della funzione di ripartizione


Z x
FX (x) = fX (x) · dx
−∞

è analiticamente impossibile; pertanto si procede linearizzando la v.a. in modo da poter utilizzare le


tavole con i valori di Φ(z) (dove Φ(z) è la funzione FZ (z) con Z la v.a. standardizzata di X).
Proprietà 4.14 Se X ∼ N (µ, σ 2 ) allora
a · X + b ∼ N (a · µ + b, a2 · σ 2 ), ∀a ∈ R\{0}, ∀b ∈ R
Dimostrazione 4.25 Se:
• a>0
    y−b
y−b y−b
Z a 1 (x−µ)2
Fa·X+b (y) = P(a · X + b ≤ y) = P X ≤ = FX = √ · e− 2·σ 2 · dx
a a −∞ 2 · π · σ2
2
1 ( y−b
a
−µ)
1 1 (y−b−a·µ)2
fa·X+b (y) 0
= Fa·X+b (y) = √ · e− 2·σ 2 · =√ · e− 2·σ2 ·a2 =
2 · π · σ2 a 2 · π · σ 2 · a2
1 (y−(a·µ+b))2 1 (y−µ̃)2
=√ · e− 2·σ 2 ·a2 =√ · e− 2·σ̃ 2
2·π· σ2 · a2 2·π· σ̃ 2
µ̃ = a · µ + b σ̃ 2 = a2 · σ 2
• a<0
  +∞
y−b
Z
1 (x−µ)2
Fa·X+b (y) = P(a · X + b ≤ y) = P X ≥ = √ · e− 2·σ 2 · dx
a y−b
a
2 · π · σ2
2 2
1 −
( y−b
a
−µ)
1 1 ( y−b
a
−µ ) 1
fa·X+b (y) = 0
Fa·X+b (y) = −√ ·e 2·σ 2 · =√ · e− 2·σ 2
· =
2·π· σ2 a 2·π·σ 2 −a

1 (y−b−a·µ)2 1 (y−µ̃)2
=√ · e− 2·σ 2 ·a2 =√ · e− 2·σ̃ 2
2 · π · σ 2 · a2 2 · π · σ̃ 2
µ̃ = a · µ + b σ̃ 2 = a2 · σ 2
42 CAPITOLO 4. VARIABILI ALEATORIE

Pertanto se X ∼ N (µ, σ 2 ) allora


a · X + b ∼ N (µ̃, σ̃ 2 ) = N (a · µ + b, a2 · σ 2 ), ∀a ∈ R\{0}, ∀b ∈ R

Definizione 4.17 [v.a. standardizzata] Sia X una v.a. si dice Y standardizzata di X se


X −µ E(Y ) = 0
Y = ⇒
σ V ar(Y ) = 1

Sulle tavole, come detto in precedenza, è presente il valore di Φ che è la funzione di distribuzione della
normale standardizzata, cioè di N (0, 1).
Tali tavole, inoltre, sfruttano la proprietà di simmetria della funzione infatti sono forniti Φ(x), x > 0
x > 0, Φ(−x) = 1 − Φ(x)

Esercizio 4.2 Sia X : altezzia di un bambino (di sette mesi) con X ∼ N (71[cm] , 6.25).
Calcolare:
• P(X > 74)
• P(X > 77)
• P(|X − µ| < 2)
   
X − 71 74 − 71 3
P(X > 74) =P √ > √ =P Z> √ = P(Z > 1.2) =
6.25 6.25 6.25

= 1 − P(X ≤ 1.2) = 1 − Φ(1.2) ≈ 1 − 0.88493 = 0.11507


   
X − 71 77 − 71 6
P(X > 77) =P √ > √ =P Z> √ = P(Z > 2.4) =
6.25 6.25 6.25

= 1 − P(X ≤ 2.4) = 1 − Φ(2.4) ≈ 1 − 0.99180 = 0.0082


   
X − 71 2 2 2
P(|X − µ| < 2) = P √
<√ = P −√ <Z< √ =
6.25 6.25 6.25 6.25

= P(−0.8 < Z < 0.8) = Φ(0.8) − Φ(−0.8) = Φ(0.8) − 1 + Φ(0.8) =

= 2 · Φ(0.8) − 1 ≈ 0.57628
Per l’ultimo risultato si poteva effettuare anche un ragionemento più “geometrico”; cioè poichè gli estremi
sono simmetrici rispetto al valor medio (µ = 0) allora
Z z̃
1
z̃ = 0.8 P(−z̃ < Z < z̃) = 2 · A A= fX (x) · dx = Φ(z̃) − Φ(0) = Φ(z̃) −
0 2
1
P(−z̃ < Z < z̃) = 2 · A = 2 · Φ(z̃) − 2 · = 2 · Φ(z̃) − 1
2
Esercizio 4.3 Sia Z la distribuzione normale standardizzata, determinare la distribuzione Z 2 .

FZ 2 (u) = 0, ∀u ≤ 0
√ z2
u
√ √ √ e− 2
Z
2
FZ 2 (u) = P(Z ≤ u) = P(− u ≤ Z ≤ u) = 2 · Φ( u) − 1 = 2 · √ · dz
−∞ 2·π
− 21 ·u − 12
 12
−u e ·u · 1
e 2 1
fZ 2 (u) = FZ0 2 (u) =2· √ · √ = √ 2
2·π 2· u π
Sia X ∼ gamma(α, λ)
λα · xα−1 · e−λ·x
fX (x) =
Γ(α)
1
pertanto ponendo α = λ = 2 si ha che fX (u) = fZ 2 (u) e quindi
 
1 1
Z 2 ∼ gamma ,
2 2
4.2. VARIABILI ALEATORIE CONTINUE 43

La risoluzione dell’esercizio precedente porta alla definizione della va continua χ21 (dove il pedice 1 indica
il numero di gradi di libertà).
Nel caso generale, cioè nel caso di χ2n si ha
n
X
χ2n := Zi2
i=1

con Zi indipendenti tra loro.


Teorema 4.1 Sia {Xn , n ≥ 1} con Xn ∼ Bi(n, p); se n → +∞ allora Xn → X con X distribuzione
normale.
!
Xn − n · p n→+∞
P p ≤x → Φ(x), ∀x ∈ R
n · p · (1 − p)
Xn → N (n · p, n · p · (1 − p))

Esercizio 4.4 Si lancia un dado regolare a sei facce n = 1000 volte.


Sia X il numero di lanci con esito 6 (X ∼ Bi 1000, 61
Determinare P(150 ≤ X ≤ 200).
200    k  1000−k 200  
X 1000 1 5 1 X 1000
P(150 ≤ X ≤ 200) = · · = 1000 · · 51000−k ≈ 0.92645
k 6 6 6 k
k=150 k=150

per ricavare tale soluzione è stato necessario l’uso di un PC.

Come si può osservare bisogna maneggiare numeri estremamente grandi, mentre accettando una piccola
approssimazione si può calcolare la medesima probabilità approssimando la distribuzione binomiale con
una distribuzione normale, X̃  
1000 5000
X̃ ∼ N ,
6 36
 
poichè si approssima una distribuzione discreta con una distribuzione continua P(X = x̂) ≈ P X̃ − ε ≤ x̂ ,

 
ponendo ε = 0.5 si ha P(X = x̂) ≈ P x̂ − 0.5 ≤ X̃ ≤ x̂ + .05 . Seguendo questa strada si ha che

200
X 200
X
P(150 ≤ X ≤ 200) = P(X = k) ≈ P(k − 0.5 ≤ X̃ ≤ k + 0.5) = P(150 − 0.5 ≤ X̃ ≤ 200 + 0.5) =
k=150
 k=150 
1000
150 − 0.5 − 6 X̃ − 1000 2000 + 0.5 − 1000
= P q ≤ q 6 ≤ q 6 
=
5000 5000 5000
 36 36 36

1000 1000
150 − 0.5 − 6 2000 + 0.5 − 6
= P q ≤Z≤ q =
5000 5000
36 36
√ √ !
103 · 2 203 · 2
=P − ≤Z≤ ≈ P(−1.457 ≤ Z ≤ 2.871) =
100 100

= Φ(2.871) − 1 + Φ(1.457) ≈ 0.99795 − 1 + 0.927442 = 0.92539


1

Esercizio 4.5 Si consideri X il tempo di riparazione di un oggetto, sapendo che X ∼ exp 2 calcolare
• P(X > 2)
• P(X > 10|X > 9)
1 − 1 ·x
·e 2
fX (x) =
2
Z +∞ i+∞
1 − 1 ·x h 1
P(X > 2) = · e 2 · dx = −e− 2 ·x = e−1
2 2 2
Z +∞
def inizione 1 − 1 ·x h i+∞
· e 2 · dx − 21 ·x
probabilità
condizionata P(X > 10) 2 −e e−5 1
P(X > 10|X > 9) = = Z10+∞ =h 10
+∞ = − 9 = e− 2
P(X > 9) 1 − 1 ·x
i
1
−e− 2 ·x e 2
· e 2 · dx
9 2 9
44 CAPITOLO 4. VARIABILI ALEATORIE

Ricorrendo invece alla proprietà di non memoria della distribuzione esponenziale (P(X > s + t|X > s) =
P(X > t))
Z +∞ i+∞
1 − 1 ·x h 1 1
P(X > 10|X > 9) = P(X > 9 + 1|X > 9) = P(X > 1) = · e 2 · dx = −e− 2 ·x = e− 2
1 2 1

Esercizio 4.6 La quantità giornaliera di rifiuti segue la distribuzione


X ∼ N (25[g] , 16)
Supponendo che la quantità di rifiuti giornaliesi siano tra di loro indipendenti, determinare
• P(X > 30)
• P(X1 ≤ 30, X2 ≤ 30) (con X1 e X2 la quantità di rifiuti in due giorni distinti)
• P(su 10 giorni X > 30 al più 2 volte)
     
X − 25 30 − 25 5 5
P(X > 30) = P > =P Z> =1−Φ ≈ 1 − 0.89435 = 0.10565
4 4 4 4
P(X1 ≤ 30, X2 ≤ 30) = P(X1 ≤ 30) · P(X2 ≤ 30) = P(X ≤ 30)2 =
 2  2
X − 25 30 − 25 5
=P ≤ =Φ ≈ 0.79986
4 4 4
Per l’ultimo punto occorre definire una variabile aleatoria di tipo binomiale, N , che rappresenta il numero
di giorni in cui X > 30
  
5
N ∼ Bi(10, P(X > 30)) = Bi 10, 1 − Φ ≈ Bi(10, 0.10565)
4
pertanto
P(su10 
giorni X > 30 al  2 volte) = P(N ≤ 2) = PN (0)
più   +PN (1) + PN (2) =
10 10 10 9 10
= · (0.89435) + · (0.10565) · (0.89435) + · (0.10565)2 · (0.89435)8 = 0.91975
0 1 2

4.3 Leggi congiunte di variabili aleatorie


Siano X e Y due v.a. reali
Definizione 4.18 La funzione di distribuzione congiunta di X e Y è una funzione
FXY (x, y) = P(X ≤ x, Y ≤ y) = P((x, y) ∈ B), x,y ∈ R
con B = (−∞, x] × (−∞, y]
Nel caso di congiunzione di n v.a. si ha
F(X1 ,...,Xn ) (x1 , . . . , xn ) = P(X1 ≤ x1 , . . . Xn ≤ xn ), ∀xi ∈ R, ∀i ≤ n ∩ N

La FXY (x, y) può essere interpretata come funzione di distribuzione di una variabile aleatoria X come
 
X1
FX (x) = P(X ≤ x), X =  ... 
 

Xn
Dalla definizione di FXY è possibile ricavare la distribuzione di X e Y , definendole funzioni di distribuzioni
marginali.
Definizione 4.19 Si definisce funzione di distribuzione marginale di FXY
FX (x) = P(X ≤ x) = P(X ≤ x, Y ≤ +∞) = lim FXY (x, y)
y→+∞

FY (y) = P(Y ≤ y) = P(X ≤ +∞, Y ≤ y) = lim FXY (x, y)


x→+∞

Osservazione 4.3 A partire da FXY si possono calcolare, con il principio di inclusione-esclusione, le
probabilità delle altre regioni di forma rettangolare
P(x1 ≤ X ≤ x2 , y1 ≤ Y ≤ y2 ) = FXY (x2 , y2 ) − FXY (x1 , y2 ) − FXY (x2 , y1 ) + FXY (x1 , y1 )
P(X > x, Y > y) = P(Y > y)−[P(X ≤ x)−P(X ≤ x, Y ≤ y)] = 1−P(X ≤ x)−P(Y ≤ y)+P(X ≤ x, Y ≤ y)
4.3. LEGGI CONGIUNTE DI VARIABILI ALEATORIE 45

4.3.1 Funzioni di densità congiunte di variabili aleatorie discrete


Si considerino due v.a. reali discrete, X e Y

Definizione 4.20 Si definisce funzione di densità congiunta di X e Y la funzione

p : X × Y → [0, 1]

p(x, y) = P(X = x, Y = y), (x, y) ∈ X × Y

In base alla definizione è necessario che

p(x, y) ≥ 0, ∀(x, y) ∈ X × Y
 
 
X  [ 
p(x, y) = 1 = P(S) = P  (X = xi , Y = yj )
 
 
(x,y)∈X×Y  xi ∈ X 
yj ∈ Y

e si ha che le densità marginali sono rispettivalmente


X
pX (x) = p(x, y), x ∈ X
y∈Y

X
pY (y) = p(x, y), y ∈ Y
x∈X
   
[ [ X X
pX (x) = P(X = x) = P X = x, Y = y = P  (X = x, Y = y) = P(X = x, Y = y) = p(x, y)
y∈Y y∈Y y∈Y y∈Y

Esempio 4.17 Si consideri un’estrazione di 3 palline da un’urna composta da 3 palline rosse, 4 blu e 5
bianche. Siano X e Y rispettivamente il numero di palline rosseestrette e il numero di palline blu estrette.
Supposto che tutte le estrazioni sono equiprobabili, determinare la distribuzione congiunta di X e Y .

x ∈ X = {0, 1, 2, 3} y ∈ Y = {0, 1, 2, 3}

Si può facilemnte osservare che



3 4 5
  
 x ·
 y · 3−x−y
∀(x, y) ∈ X × Y : x + y ≤ 3
p(x, y) = 12

 3
 0 altrimenti

4.3.2 Funzioni di densità congiunte di variabili aleatorie continue


Si considerino due v.a. reali continue, X e Y

Definizione 4.21 X e Y si dicono congiuntamente continue o assolutamente continue se esiste la


funzione di densità congiunta
f : R × R → [0, +∞)
tale che, tutte le volte che l’integrale è definito
ZZ
P((X, Y ) ∈ C) = f (u, v) · du · dv, C = (−∞, x] × (−∞, y]
C

f deve soddisfare ZZ
f (x, y) · dx · dy = 1
R2
Z x Z y
FXY (x, y) = f (u, v) · du · dv
−∞ −∞


46 CAPITOLO 4. VARIABILI ALEATORIE

Osservazione 4.4 Derivando FXY si ha la funzione di densità congiunta


∂ 2 FXY (x, y)
fXY (x, y) =
∂x · ∂y
Inoltre se si prendono dx e dy piccoli si ha che
Z x+dx Z y+dy
P(x ≤ X ≤ x + dx, y ≤ Y ≤ y + dy) = f (u, v) · du · dv ≈ f (x, y) · dx · dy
x y

Esempio 4.18 Si consideri la funzione



k·x 0 < x < 1, 0 < y < 1
f (x, y) =
0 altrimenti
Trovare k in modo che f sia la densità congiunta di 2 v.a.
É necessario che f (x, y) ≥ 0, ∀(x, y) ∈ [0, 1] × [0, 1], questa condizione impone k > 0, inoltre è necessario
che
ZZ Z 1Z 1 Z 1 Z 1  2 1
x k
1= f (x, y) · dx · dy = k · x · dx · dy = k · dy · x · dx = k · = ⇒k=2
R2 0 0 0 0 2 0 2
Esempio 4.19 Un dispositivo composto da 2 componenti smette di funzionare non appena una delle due
componenti smette di funzionare.
La densità congiunta dei tempi di vita dei due componenti misurata in ore è

2 · x 0 < x < 1, 0 < y < 1
f (x, y) =
0 altrimenti
Determinare la probabilità che il dispositivo smette di funzionare nella prima mezz’ora.
 
1
P(dispositivo non funziona prima di mezz’ora) = P min(x, y) ≤
2
           
1
 1 1 1 1 1 1
P min(x, y) ≤ 2 =P X≤ ∪ Y ≤ =P X≤ +P Y ≤ −P X≤ ∩ Y ≤ =
  2  2  2  2 2 2
1 1 1 1
P X≤ +P Y ≤ − P X ≤ ,Y ≤ =
2 2 2 2
Z 1 Z 12 Z 21 Z 1
 1 1  1 1 1 3 5
2 · x · dx · dy + 2 · x · dx · dy = x2 02 + · x2 1 = + · =
0 0 0 1
2
2 2 4 2 4 8

Se le X e Y sono congiuntamente continue allora anche le v.a. X e P sono continue, inoltre la funzione
di densità della X e Y si dicono densità marginali.
Z
fX (x) = f (x, y) · dy, x ∈ R
R
Z
fY (y) = f (x, y) · dx, y ∈ R
R
Le relazioni sopra siZ ottengono differenziando
x Z +∞
FX (x) = P(X ≤ x, −∞ < y < +∞) f (u, v) · du · dv
−∞ −∞

Esempio 4.20 Un dispositivo smette di funzionare appena entrambe le componenti smettono di funzio-
nare.
La densità congiunta dei tempi di vita dei 2 componenti, misurato in ore, è
 x+y
8 0 < x < 2, 0 < y < 2
f (x, y) =
0 altrimenti
Determinare la probabilità che il dispositivo smette di funzionare nella prima ora.

P(dispositivo non funziona prima di ora) = P (max(x, y) ≤ 1)


Z 1Z 1 Z 1 2 1
x+y 1 x
P (max(x, y) ≤ 1) = P(X ≤ 1, Y ≤ 1) = · dx · dy = · + x · y · dy =
8 8 0 2
Z  0 0 2 1 0
1 1 1 y y 1
+ y · dy = · + =
8 2 8 2 2 0 8
4.4. VARIABILI ALEATORIE INDIPENDENTI 47
Z
fX (x) = f (x, y) · dy
R
2  2
1 y2
Z
x+y x 2 x+1
∀x ∈ [0, 2] : fX (x) = · dy = · [y]0 + · =
0 8 8 8 2 0 4
Si può verificare che Z  
1 3 1
1= fX (x) · dx = + ·2· =1
R 4 4 2
pertanto
x+1
Z 
0≤x≤2
fX (x) = f (x, y) · dy = 4
R 0 altrimenti
per il calcolo di fY (y) si può osservare che X e Y sono simmetriche, pertanto
Z  y+1
0≤y≤2
fY (y) = f (x, y) · dx = 4
R 0 altrimenti

4.4 Variabili aleatorie indipendenti


Nel calcolo delle probabilità le v.a. indipendenti svolgono un ruolo fondamentale.
La definizione di indipendenza tra le variabili aleatorie si basa sul concetto di indipendenza di eventi.
Definizione 4.22 Due v.a. si dicono indipendenti se gli eventi determinati da X e gli eventi determinati
da Y sono indipendenti, cioè se

P(X ∈ A, Y ∈ B) = P(X ∈ A) · P(X ∈ B), ∀A, B

cioè conoscere il valore di una delle variabile non modifica la distribuzione di probabilità dell’altra.


Utiizzando gli assiomi della probabilità si può dimostrare che due variabili aleatorie X e Y sono indipen-
denti se e solo se
FXY (x, y) = FX (x) · FY (y), ∀A, B

Esempio 4.21 Siano X, Y v.a. continue con

2 · e−x · e−2·y

2 x > 0, y > 0
∀(x, y) ∈ R , fXY (x, y) =
0 altrimenti

Si determini
• P(X > 1, Y < 1)
• P(X < Y )
• P(X < a)
X
• la densità di Z = Y
Z +∞ Z 1  Z +∞ Z 1 
P(X > 1, Y < 1) = 2 · e−x · e−2·y · dy · dx = e−x · 2 · e−2·y · dy · dx =
Z1 +∞ 0 1 0
−x −2 −1 −2
= e · (1 − e ) · dx = e · (1 − e )
1
Z Z +∞ Z +∞ 
P(X < Y ) = e−x ·
fXY (x, y) · dx · dy = 2 · e−2·y · dy · dx =
Z{(x,y):
+∞
x<y}
0 −3·x +∞ x
e 1
= e−x · e−2·x · dx = =
0 3 0 3
Z +∞ Z a  Z +∞
P(X < a) = 2 · e−2·y · e−x · dx · dy = 2 · e−2·y · (1 − e−a ) · dy = 1 − e−a , a > 0
0 0 0

0 a<0
P(X < a) =
1 − e−a a>0
48 CAPITOLO 4. VARIABILI ALEATORIE

X 0 z≤0
Z= ⇒ FZ (z) =
Y P(Z ≤ z)z>0 z > 0
  Z +∞ Z z·y 
X
P(Z ≤ z)z>0 =P ≤ z = P(X ≤ z · Y ) = 2 · e−2·y · e−x · dx · dy =
Z +∞ Y Z0 +∞ 0 Z
+∞
−2·y −z·y −2·y
2·e · (1 − e ) · dy = 2·e · dy − 2 · e−(z+2)·y · dy =
0 Z +∞ 0 0
2 2 z
1− · (2 + z) · e−(2+z)·y · dy = 1 − =
2+z 0 2+z 2+z

0 z≤0
FZ (z) = z
2+z z >0

Definizione 4.23 Due v.a. si dicono indipendenti se

FXY (x, y) = FX (x) · FY (y), ∀(x, y) ∈ R2

inoltre si può dimostrare che

• nel caso discreto pXY (x, y) = pX (x) · p( y), ∀x ∈ X, y ∈ Y

• nel caso continuo fXY (x, y) = fX (x) · f( y), ∀(x, y) ∈ R2

Esercizio 4.7 Ugo e Zoe si danno appuntamento all’ingresso di un locale con l’accordo di aspettarsi per
solo 10 minuti.
Se ogniuno di loro arriva indipendentemente dall’altro in un istante compreso tra le 21 e le 22, determinare
la probabilità che entrino insieme nel locale.
Si definiscono le seguenti v.a.

U ∼ U nif orme[0, 60] Z ∼ U nif orme[0, 60]

che rappresenta il momento di arrivo di rispettivamente Ugo e Zoe.


Poichè U e Z sono indipendenti allora

1 2
 
u, z ∈ (0, 60)
fU Z (u, z) = 60
0 u, z ∈
/ (0, 60)

Q = [0, 60] × [0, 60]


Z  2  2
1 1 11
P(|U − Z| ≤ 10) = P(U ≤ 10+z, Z ≤ 10+U ) = ·dx·dy = ·(602 −502 ) =
{(u,z)∈Q: |u−z|≤10} 60 60 36

Esercizio 4.8 Siano X, Y due v.a. con

6 · e−2·x · e−3·y

x > 0, y > 0
fXY (x, y) =
0 altrimenti

determinare se X e Y sono indipendenti.

6 · e−2·x · e−3·y x > 0, y > 0 2 · e−2·x · 3 · e−3·y x > 0, y > 0


 
fXY (x, y) = =
0 altrimenti 0 altrimenti
Z Z +∞
fX (x) = fXY (x, y) · dy = 2 · e−2·x · 3 · e−3·y · dy = 2 · e−2·x
R 0
Z Z +∞
fY (y) = fXY (x, y) · dx = 2 · e−2·x · 3 · e−3·y · dx = 3 · e−3·y
R 0

Poichè fXY (x, y) = fX (x) · fY (y) allora X e Y sono indipendenti.

Esercizio 4.9 Siano X, Y due v.a. con



24 · x · y 0 < x < 1, 0 < y < 1, 0 < x + y < 1
fXY (x, y) =
0 altrimenti
4.4. VARIABILI ALEATORIE INDIPENDENTI 49

determinare se X e Y sono indipendenti.

Q = [0, 1] × [0, 1] 0 < x < 1, 0 < y < 1, 0 < x + y < 1 ≡ Q ∩ (0 < x + y < 1) = T
Z
Poichè fX (x) è chiaramente 0 se ha x < 0 o x > 1 e tra 0 e 1 vale 24 · x · y · dx · dy > 0 (lo stesso
T
discorso vale per fY (y) oichè ha formulazione equivalente); se X e Y fossero indipendenti si avrebbe che
fXY (x, y) = fX (x) · fY (y) > 0, ∀(x, y) ∈ Q che è in contraddizione con la fXY (x, y) fornita, pertanto, X
e Y sono v.a. non indipendenti.
Analiticamente si ha
Z Z 1−x
fX (x) = 24 · x · y · dx · dy = 24 · x · y · dy = 12 · x · (1 − x)2
T 0

Z Z 1−y
fY (y) = 24 · x · y · dx · dy = 24 · x · y · dx = 12 · y · (1 − y)2
T 0

É evidente che

fX (x) · fY (y) = 144 · x · y · (1 − x)2 · (1 − y)2 6= 24 · x · y = fXY (x, y)

4.4.1 Somma di variabili aleatorie indipendenti


Siano X e Y indipendenti con funzioni di densità associate fX (x) e fY (y)

Z =X +Y
Z +∞ Z z−x  Z +∞
FZ (z) = P(Z ≤ z) = P(X + Y ≤ z) = fX (x) · fY (y) · dy · dx = fX (x) · FY (z − x) · dx
−∞ −∞ −∞
Z +∞
fZ (z) = FZ0 (z) = fX (x) · fY (z − x) · dx = fX+Y (z) = fX ? fY caso continuo
−∞
X X
pZ (z) = pX+Y (z) = pX (x) · pY (y) = pX (x) · pY (z − x) pY (λ) = 0, λ ∈
/Y caso discreto
x+y=2 x∈X

Somma di variabili aleatorie indipendenti notevole


Uniforme
X ∼ U nif orme[0, 1] Y ∼ U nif orme[0, 1] indipendenti
 
1 0<x<1 1 0<y<1
fX (x) = fY (y) =
0 altrove 0 altrove
Si ha che 

 0 z≤0
z 0<z≤1

fX+Y (z) =

 2−z 1<z≤2
0 z>2

La convoluzione di due uniformi tra 0 e 1 è una “triangolare” tra 0 e 2.

Binomiale Sia X ∼ Bi(n, p) e Y ∼ Bi(m, p) indipendenti; si ha intuitivamente che Z = X + Y ∼


Bi(n + m, p), infatti
n n    
X X n m
∀k ∈ [0, n + m] ∩ N, pZ (k) = pX (i) · pY (k − i) = · pi · (1 − p)n−i · · pk−i · (1 − p)m−k+i
i=0 i=0
i k−i
 
n
è necessario che i ≤ n e che k − i ≤ m, ma ponendo la convenzione che = 0 se k < n si ha
k
n      
n+m−k k
X n m n+m k
pZ (k) = (1 − p) ·p · · = p · (1 − p)n+m−k
i=0
i k − i k
50 CAPITOLO 4. VARIABILI ALEATORIE

Poisson Sia X ∼ P oisson(λ1 ) e Y ∼ P oisson(λ2 ) indipendenti; si ha intuitivamente che Z = X + Y ∼


P oisson(λ1 + λ2 ), infatti
k k k
X X
−λ1 λi1 −λ2 λk−i
2 −(λ1 +λ2 )
X λi1 · λk−i
2
pX+Y (k) = pX (i) · pY (k − i) = e · ·e · =e · =
i=0 i=0
i! (k − i)! i=0
i! · (k − i)!
k k  
e−(λ1 +λ2 ) X k! e−(λ1 +λ2 ) X k
= · · λi1 · λk−i
2 = · · λi1 · λk−i
2 =
k! i=0
i! · (k − i)! k! i=0
i
k    i  k−i
e−(λ1 +λ2 ) X n λ1 λ2 e−(λ1 +λ2 )
= (λ1 + λ2 )k · · · · = (λ1 + λ2 )k ·
k! i=0
i λ1 + λ2 λ1 + λ2 k!
| {z }
1
Parte II

Analisi Matematica

51
Capitolo 5

Ripasso numeri complessi (C)

Insiemisticamnente l’insieme dei numeri complessi si ha che

C = R2 = {∀x, y ∈ R : x + i · y}

a differenza di R in C è presente un’unità immaginaria tale che i2 = −1, inoltre in C non è possibile
definire relazioni d’ordine1 .

5.1 Rappresentazioni
Un numero z ∈ C : z = (x, y) può essere rappresentato nei seguenti modi2
forma cartesiana

z = (x, y) = (x, 0) + (0, y) = x · (1, 0) + y · (0, 1) = x · 1 + y · i = x + i · y

z
forma polare o trigonometrica, se z 6= 0, z = |z| · |z| , poichè
z
∃ϑ ∈ R : = (cos(ϑ), sin(ϑ)) = cos(ϑ) + i · sin(ϑ)
|z|
z = ρ · (cos(ϑ) + i · sin(ϑ)) ρ = |z|, ϑ = arg(z)

forma esponenziale se z 6= 0, poichè ei·ϑ := cos(ϑ) + i · sin(ϑ)

z = ρ · ei·ϑ

5.2 Operazioni fondamentali


Operazioni fondamentali, considerando z = x + i · y ∈ C:
parte reale rappresenta la componente reale del numero

Re [z] := x |Re [z]| ≤ |z|

parte immaginaria rappresenta la componente immaginaria del numero

Im [z] := y |Im [z]| ≤ |z|

modulo rappresenta la distanza euclidea del numero complesso dall’origine, nel piano complesso
q
2 2
|z| := Re [z] + Im [z]

fase rappresena l’angolo che vi è tra l’asse reale e la congiungente del numero complesso con l’origine
del piano complesso   
 arctan Im[z] Re [z] ≥ 0
Re[z]
arg(z) :=  
 arctan Im[z] + π Re [z] < 0
Re[z]

1 che significato ha dire un punto è minore di un altro?


2 per una visualizzazione grafica consultare la Figura (5.1a)

53
54 CAPITOLO 5. RIPASSO NUMERI COMPLESSI

coniugato rappresenta il numero complesso riflesso all’asse reale, vi è cambiamento di segno solo sulla
parte immaginaria
z := x − i · y

prodotto ha definizioni operative distinte in base alla rappresentazione

• siano z1 = x1 + i · y1 ∈ C e z2 = x2 + i · y2 ∈ C

z1 · z2 := (x1 + i · y1 ) · (x2 + i · y2 ) = x1 · x2 − y1 · y2 + i · (x1 · y2 + x2 · y1 )

• siano z1 = ρ1 · ei·ϑ1 e z2 = ρ2 · ei·ϑ2

z1 · z2 := ρ1 · ei·ϑ1 · ρ2 · ei·ϑ2 = ρ1 · ρ2 · ei·(ϑ1 +ϑ2 )

parte reale, definizione operativa , Figura (5.1b)

z+z
Re [z] =
2

parte immaginaria, definizione operativa , Figura (5.1c)

z−z
Im [z] =
2·i

potenza n-esima di un binomio complesso


n   n
X n X n!
∀n ∈ N (z + w)n = · z n−k · wk = · z n−k · wk
k (n − k)! · k!
k=0 k=0

differenza di potenze n-esima


n−1
!
X
n n n−1 n−2 n−2 n−1 n−1−k k
∀n ∈ N z −w = (z −w)·(z +z ·w +. . .+z ·w +w ) = (z −w)· z ·w
k=0

inverso p 2
2
z · z = (x + i · y) · (x − i · y) = x2 + y 2 = x2 + y 2 = |z|

1 1 z z
z −1 := = · = 2
z z z |z|

z z
z− z

i
ϑ
Real[z] z+ z
1 Imag[z] z − z
z+ z − z z
2·i
2

z z
(a) Piano Complesso (ρ, ϑ, z) (b) Piano Complesso, evidenziato il (c) Piano Complesso, evidenziato il
procedimento per ricavare Re [z] procedimento per ricavare Im [z]

Figura 5.1: Sintesi grafica della rappresentazione di numeri complessi sul piano di Gauss (piano complesso)
5.3. ESERCIZI 55

Proprietà specifiche della rappresentazione esponenziale


q
• ei·ϑ = 1, infatti ei·ϑ = cos2 (ϑ) + sin2 (ϑ) = 1

• ei·ϑ = e−i·ϑ
• e−i·ϑ = 1
ei·ϑ
n
• ∀n ∈ N ei·ϑ = ei·n·ϑ

• ei·ϑ · ei·ϕ = ei·(ϑ+ϕ)


• ∀n ∈ Z z n = ρn · ei·n·ϑ = ρn · (cos(n · ϑ) + i · sin(n · ϑ))

z1 |z1 |
• |z1 · z2 | = |z1 | · |z2 | =
z2 |z2 |

Proprietà di un esponenziale complesso Sia z ∈ C si definisce esponenziale complesso la quantità

ez := eRe[z]+i·Im[z] = eRe[z] · ei·Im[z]

5.3 Esercizi
Esercizio 5.1 (11/11/2006) Risolvere in C l’equazione
2
z 2 + 2 · z = 5 · |z|

Un semplice metodo risolutivo è quello di sostituire z = x + i · y pertanto


2
z 2 + 2 · z = 5 · |z| ⇒ (x + i · y)2 + 5 · (x − i · y) = 5 · (x2 + y 2 ) ⇒
⇒ x2 + 2 · i · x · y − y 2 + 5 · x − 5 · i · y − 5 · x2 − 5 · y 2 = 0 ⇒
⇒−4 · x2 − 6 · y 2 + 5 · x + i · (2 · x · y − 5 · y) = 0 ⇒
4 · x2 + 6 · y 2 − 5 · x = 0
⇒ ⇒
y · (2 · x − 5) = 0
2
4 · x2 − 5 · x = 0
 
4 · 25 + 6 · y 2 − 5 · 52 = 0

⇒ ∪ ⇒
y=0 x = 25
  2
x · (4 · x − 5) = 0 4 · 25 + 6 · y 2 − 5 · 52 = 0
 
⇒ ∪ 5 ⇒
y=0
  5
x = 2 2 25
x=0 x= 4 25 + 6 · y − 2 = 0
⇒ ∪ ∪ 5 ⇒
y = 0 y = 0  x = 22 25
5
 
x=0 x= 4 6·y + 2 =0
⇒ ∪ ∪ ⇒
y = 0 y = 0 x = 25
5
 
x=0 x= 4
⇒ ∪ ∪ { } ⇒
 y = 0  y = 05
x=0 x= 4
⇒ ∪
y=0 y=0

5
z =0∪z =
4

Esercizio 5.2 Scrivere x2 + i · x · y in funzione di z e z


z+z z−z
x= y=
2 2·i
 2
z+z z+z z−z 1 1 z
x2 + i · x · y = +i· · = · (z 2 + 2 · z · z 2 ) + · (z 2 − z 2 ) = · (z + z) = z · Re [z]
2 2 2·i 4 4 2

Esercizio 5.3 (#12, capitolo 1 delle dispense) Esprimere in funzione di z

f (x, y) = x2 − y 2 − 2 · y + 2 · i · x · (1 − y)

x2 − y 2 − 2 · y + 2 · i · x · (1 − y) = x2 − y 2 − 2 · y + 2 · i · x − 2 · i · x · y = (x − i · y)2 + 2 · (i · x − y) =
= (x − i · y)2 + 2 · i · (x + i · y) = z 2 + 2 · i · z
56 CAPITOLO 5. RIPASSO NUMERI COMPLESSI

Esercizio 5.4 Trovare i numeri z ∈ C tali che |z − 1| ≤ 1


p
|z − 1| = |x + i · y − 1| = |(x − 1) + i · y| = (x − 1)2 + y 2 ≤ 1
cioè tutti i punti interni alla circonferenza, bordo bompreso, di centro (1, 0) e raggio 1.
1+2·i
Esercizio 5.5 Scrivere in forma algebrica z = 3−4·i

(1 + 2 · i) · (3 − 4 · i) 3+4·i+6·i−6 −3 + 10 · i
z= = =
9 + 16 25 25
Esercizio 5.6 Scrivere in forma polare (trigonometrica) i seguenti numeri complessi
• z=i  π π
|z| = |i| = 1 π
π ⇒ z = cos + i · sin = ei· 2
arg(i) = 2 2 2
• z =1+i √ √
√ h  π i √
 π
|z| = 1 + 1 = 2 π
π ⇒ z = 2 · cos + i · sin = 2 · ei· 4
arg(i) = 4 4 4
• z = i · (1 + i) = i − 1
√ √
√ √
     
|z| = 1 + 1 = 2 3 3 3
3 ⇒ z = 2 · cos − · π + i · sin − · π = 2 · e−i· 4 ·π
arg(i) = − 4 · π 4 4

• z = sin(ϑ) + i · cos(ϑ)

z = sin(ϑ) + i · cos(ϑ) = i · (cos(ϑ) − i · sin(ϑ)) = i · [cos(−ϑ) + i · sin(−ϑ)] = i · e−i·ϑ = ei·( 2 −ϑ) = z


π


1 + 7 · i 2+i· π
Esercizio 5.7 Calcolare il modulo di z = √ ·e 8
3−i

1 + 7 · i π √1 + 7


|z| = √ · e2 · ei· 8 = √ · e2 = 2 · e2
3 − i 3+1
1−i
Esercizio 5.8 Sia z = i , calcolare z 9
1−i √ 5
z= = −i · (1 − i) = −i − 1 = 2 · ei· 4 ·π
i
√ √ √
z 9 = ( 2)9 · ei·9· 4 ·π = 16 · 2 · ei·(10+ 4 )·π = 16 · 2 · ei· 4 ·π
5 5 5

Esercizio 5.9 Calcolare le radici quarte in C di −4


z = ρ · ei·ϑ
−4 = 4 · (−1) = 4 · ei·π ⇒ z 4 = −4 ⇔ ρ4 · ei·4·ϑ = 4 · ei·π
 4  √
ρ =4 ρ= 2
⇒ k ∈ {0, 1, 2, 3}
4·ϑ=π+2·k·π ϑ = π4 + k · π2
z1 = 1 + i, z2 = −1 − i, z3 = 1 − i z4 = −1 + i
Dai risultati si può ossevare che le radici sono i vertici di un poligono di n vertici, dove n è il numero di
radici, inscritto in una circonferenza centrata in (0, 0).
Esercizio 5.10 Calcolare le soluzioni di z 2 − 2 · z + 2 = 0.
In generale
a · z 2 + b · z + c = 0, a 6= 0, a, b, c ∈ C

−b ± b2 − 4 · a · c
z1,2 =
2·a

occorre quindi trovare le radici complesse di b2 − 4 · a · c.
Nell’esempio specifico si ha che

b2 − 4 · a · c = 4 − 8 = −4 ⇒ −4 = ±2 · i
pertanto
2±2·i
z1,2 = =1±i
2
5.3. ESERCIZI 57

Esercizio 5.11 Calcolare le soluzioni di 4 · z 2 + 4 · z + 1 − i = 0.

b2 − 4 · a · c = 16 − 16 + 16 · i = 16 · i
π
w2 = 16 · i w2 = 16 · i = 16 · ei· 2
   
ρ=4 ρ=4
⇒ ⇒ ⇒ k ∈ {0, 1}
w = ρ · ei·ϑ w2 = ρ2 · ei·2·ϑ 2 · ϑ = π2 + 2 · k · π ϑ = π4 + k · π
pertanto √ √ √ √
1 5
z1 = 4 · ei· 4 ·π = 2 · 2+i·2· 2, z2 = 4 · ei· 4 ·π = −2 · 2−i·2· 2
58 CAPITOLO 5. RIPASSO NUMERI COMPLESSI
Capitolo 6

Funzioni complesse

6.1 Esponenziale complesso


La funzione esponenziale complessa è
ez := ex+i·y = ex · ei·y
Siano z1 = x1 + i·1 ∈ C e sia z2 = x2 + i · y2 allora

x1 = x2
ez1 = ez2 ⇔
y1 = y2 + 2 · π · k k∈Z

ez = ez ⇔ z = z + i · 2 · π · k ≡ x + i · y = x − i · y + 2 · π · k ≡ y = k · π k∈Z
Poichè l’esponenziale complesso è il prodotto di un esponenziale reale con la rappresentazione esponenziale
di un numero complesso valgono tutte le proprietà di uso abituale.

6.2 Funzioni trigonometriche


Attraverso le formule di Eulero, nel campo reale, si può definire il seno e coseno (reali)
ei·t − e−i·t
= sin(t)
2·i
∀t ∈ R
ei·t + e−i·t
= cos(t)
2
Si possono definire le funzioni seno e coseno complesso.
ei·z − e−i·z
sin(z) :=
2·i
∀z ∈ C
ei·z + e−i·z
cos(z) :=
2

6.2.1 Proprietà
2  i·z 2
ei·z − e−i·z e + e−i·z

2 2
1 = sin (z) + cos (z) = + =
2·i 2
1  1
= − · ei·2·z − 2 · ei·z−i·z + e−i·2·z + · ei·2·z + 2 + e−i·2·z =

4 4
1  4
= · −ei·2·z + 2 − e−i·2·z + ei·2·z + 2 + e−i·2·z = = 1
4 4
i·z −i·z
e −e
sin(z) = 0 ⇔ z = k · π, k ∈ Z ⇔ = 0 ≡ ei·z = e−i·z ≡ e−y · ei·x = ey · e−i·x ≡
 2y · i −y 
e =e y=0
≡ ≡ k∈Z
x = −x + 2 · k · π x=k·π
ei·z + e−i·z
cos(z) = 0 ⇔ z = π
2 + k · π, k ∈ Z ⇔ = 0 ≡ ei·z = −e−i·z = e−i·z · ei·π ≡
2
≡ e−y · ei·x = ey · ei·(π−x) ≡ 
ey = e−y y=0
≡ ≡ k∈Z
x=π−x+2·k·π x = π2 + k · π

59
60 CAPITOLO 6. FUNZIONI COMPLESSE

6.3 Funzioni iperboliche


ez − e−z
sinh(z) :=
2
∀z ∈ C
ez + e−z
cosh(z) :=
2

6.3.1 Proprietà
cosh2 (z) − sinh2 (z) = 1

sinh(z) = 0 ⇔ z = k · π · i, k ∈ Z
π
cosh(z) = 0 ⇔ z = · i + k · π · i, k ∈ Z
2

6.4 Esercizi
Esercizio 6.1 (11/02/2009) Disegnare il dominio della funzione e trovare gli zeri di

ei·3·z − 1
f (z) =
z4 − 4

dominio dom(f ) = {z ∈ C : z 4 6= 4}

z4 = 4 z 4 = 4 = 4 · ei·0 ρ4 = 4
   
ρ= 2
⇒ ⇒ ⇒ k ∈ {0, 1, 2, 3}
z = ρ · ei·ϑ z 4 = ρ4 · ei·4·ϑ 4·ϑ=2·k·π ϑ = k · π2
n√ π
o n √ √ o
dom(f ) = C\ 2 · ei·k· 2 , k ∈ {0, 1, 2, 3} = C\ ±i · 2, ± 2

zeri Si ricercano gli z tali che ei·3·z = 1 = 1 · ei·0

2
i·3·z =i·2·k·π ⇒3·z =2·k·π ⇒z = ·k·π k ∈Z
3
Occorre, infine, verificare se gli zeri trovati fanno parte del dominio. Attraverso il grafico si può
osservare che gli zeri sono tutti interni al dominio.

punti esterni al dominio


3 zeri della funzione

sqrt(2) ⋅i
1
−2/3 ⋅π 2/3 ⋅π 4/3 ⋅π
−4/3 ⋅π 0
0
- sqrt(2) sqrt(2)

−1

−sqrt(2) ⋅i
−2

−3

−4

−5
−5 −4 −3 −2 −1 0 1 2 3 4 5

Figura 6.1

2
f (z) = 0 ⇒ z = ·k·π k ∈Z
3
6.4. ESERCIZI 61

Esercizio 6.2 (17/02/2011) Trovare gli zeri di

sin(2 · π · z)
f (z) =
8 − z3
n 2 4
o
dom(f ) = {z ∈ C : 8 6= z 3 } = C\ 2, 2 · ei· 3 π , 2 · ei· 3 ·π

k
sin(2 · π · z) = 0 ≡ 2 · π · z = k · π ≡ z = k∈Z
2
k
f (z) = 0 ⇒ z = k∈Z
2
Esercizio 6.3 Risolvere in C l’equazione e disegnare il luogo degli zeri

(z − i)2 · (z + i) = 9 · z − i · 9

(z − i) · (z + i) = 9 ∪ z = i
z·z+i·z−i·z+1=9∪z =i
z · z + i · (z − z) = x2 + y 2 + i · (i · 2 · y) = x2 + y 2 − 2 · y = 8 ∪ z = i
zeri: {z ∈ C : |z − i| = 3} ∪ z = i

2 3

1 i

−1

−2

−3

−4

−5
−5 −4 −3 −2 −1 0 1 2 3 4 5

Figura 6.2
62 CAPITOLO 6. FUNZIONI COMPLESSE
Capitolo 7

Analisi in Campo Complesso

Definizione 7.1 Sia z0 = (x0 , y0 ) = x0 + i · y0 ∈ C e sia r > 0.


Si definisce palla aperta o intorno aperto o disco aperto centrato in z0 di raggio r l’insieme

Br (z0 ) = {z ∈ C : |z − z0 | < r}

Esempio 7.1 Calcola l’intorno di i di raggio 3.


n p o
B3 (i) = {z ∈ C : |z − i| < 3} = z = x + i · y : x, y ∈ R, x2 + (y − 1)2 < 3

Definizione 7.2 Si consideri D ⊆ C, D si dice aperto se

∀z0 ∈ D, ∃Br (z0 ) ⊆ D

Definizione 7.3 Un punto z0 ∈ D si dice punto di bordo o punto di frontiera per D ⊆ C se

∀r > 0, Br (z0 ) 6⊆ D

La frontiera si indica con ∂D.

Definizione 7.4 Si dice chiusura di D l’insieme

D := D ∪ ∂D

Definizione 7.5 Un insieme D ⊆ C si dice chiuso se D = D (contiene i punti interni e i punti di


frontiera dell’insieme D).

Esempio 7.2 Sia D = Br (z0 ) ⊆ C, un insieme aperto.

∂Br (z0 ) = {z ∈ C : |z − z0 | = r}

Br (z0 ) = {z ∈ C : |z − z0 | ≤ r}

Definizione 7.6 Sia D ⊆ C, z0 ∈ C si dice punto di accumulazione per D se ogni intorno di z0 contiene
infiniti punti di D, tali punti sono punti nei quali è possibile calcolare il limite.

63
64 CAPITOLO 7. ANALISI IN CAMPO COMPLESSO

7.1 Curve in C
Definizione 7.7 Una curva in C è una funzione γ : [a, b] → C continua.
γ([a, b]) è l’immagine di γ sull’intervallo [a, b]; l’immagine si dice anche sostegno.


γ continua significa che se γ(t) = u(t) + i · v(t) allora u, v : R → R continue.


Esempio 7.3
γ : [0, 2 · π] → C
i·t
γ(t) := e = (cos(t), sin(t)) = cos(t) + i · sin(t)
γ è continua poichè sin e cos sono funzioni continue

Esempio 7.4
γ : [0, 2 · π] → C
i·t
γ(t) := z0 + r · e = x0 + i · y0 + r · cos(t) + i · r · sin(t) = x0 + r · cos(t) + i · [y0 + r · sin(t)]
γ è continua poichè sin e cos sono funzioni continue

Definizione 7.8 Sia γ : [a, b] → C, se γ(t) = u(t) + i · v(t)

γ 0 (t) = γ̇(t) = u0 (t) + i · v 0 (t)

Definizione 7.9 Una curva ha derivata continua se ha le componenti della curva hanno derivate conti-
nue.
u, v ∈ C 1 ⇒ γ ∈ C 1


Definizione 7.10 γ si dice C 1 a tratti se ha derivata continua tranne un numero finito di punti, cioè

∃a = t0 < t1 < . . . < tn−1 < tn = b : γ ∈ C 1 ([ti , ti+1 ]), ∀i ∈ [0, n − 1] ∩ N

Definizione 7.11 Sia Ω ⊆ C aperto, Ω si dice connesso se dati due qualsiasi punti esiste una curva,
interamente contenuta in Ω, che li unisce.

∀z1 , z2 ∈ Ω, z1 6= z2 : ∃a, b ∈ R, c,d ∈ [a, b], ∃γ([a, b]) ⊆ Ω : γ(c) = z1 e γ(d) = z2

7.2 Limiti
Definizione 7.12 Sia f : D ⊆ C → C e sia z0 punto di accumulazione di D, si dice che

lim f (z) = l ∈ C ≡ lim |f (x, y) − l| = 0


z→z0 (x,t)→(x0 ,y0 )

se
∀ε > 0, ∃δε > 0 : 0 < |z − z0 | < δε ⇒ |f (z) − l| < ε


Anche in campo complesso valgono le principali proprietà algebriche dei limiti in campo reale.
Cioè se f → l, g → m per z → z0 allora

lim [f (z) + g(z)] = lim f (z) + lim g(z) = l + m


z→z0 z→z0 z→z0

lim [f (z) · g(z)] = lim f (z) · lim g(z) = l · m


z→z0 z→z0 z→z0

lim f (z)
f (z) z→z0 l
∀z ∈ Br (z0 ) : g(z) 6= 0, m 6= 0 : lim = =
z→z0 g(z) lim g(z) m
z→z0
7.3. DERIVATA COMPLESSA 65

Osservazione Se f (z) = u(z) + i · v(z)



 ∃ lim u(x, y) = a
(x,y)→(x0 ,y0 )
∃ lim f (z) = l = a + i · b ⇔
z→z0  ∃ lim v(x, y) = b
(x,y)→(x0 ,y0 )

7.3 Derivata complessa


Definizione 7.13 Sia f : Ω ⊆ C → C con Ω aperto e sia z0 ∈ Ω. Si dice che f ha derivata complessa
in z0 pari ad l ∈ C se
f (z) − f (z0 ) f (z0 ) − f (z0 + h)
∃ lim = l ∈ C ≡ ∃ lim =l∈C
z→z0 z − z0 h→0 h
∂f
Si dice che f 0 (z0 ) = ∂z (z0 ) =l

00 n
∂ f
É possibile effettuare anche le derivate di ordine superiore denotandole con f (z0 ), f (n) (z0 ), ∂z n Anche
in campo complesso continuano a valere le regole algebriche

α, β ∈ R, (α · f + β · g)0 (z0 ) = α · f 0 (z0 ) + β · g 0 (z0 )

(f · g)0 (z0 ) = f 0 (z0 ) · g(z0 ) + f (z0 ) · g 0 (z0 )


 0
f f 0 (z0 ) · g(z0 ) − f (z0 ) · g 0 (z0 )
g(z0 ) 6= 0 ⇒ (z0 ) =
g [g(z0 )]2
∂f (g(z))
= f 0 (g(z)) · g 0 (z)
∂z
f è continua in z0 1 se e solo se u(x,y), v(x,y) sono continue in (x0 ,y0 ).
Esempio 7.5 Verificare se f (z) = z 2 − z è continua

f (x + i · y) = (x + i · y)2 − (x − i · y) = x2 − y 2 − x + i · (2 · x · y + y)

u(x, y) = x2 − y 2 − x v(x, y) = 2 · x · y + y
poichè u e v sono continue allora f è continua.
Per la derivata complessa non è sufficiente la derivabilità di u e v; infatti z non è derivabile, nel senso
complesso, in C.

Definizione 7.14 Sia Ω ⊆ C aperto, f : Ω → C; f si dice analitica o olomorfa se f è derivabile in ogni


punto di Ω
∀z ∈ Ω, ∃f 0 (z)


Esiste un teorema che afferma che se f (z) = u(z) + i · v(z) è analitica in Ω allora u, v ∈ C 1 (Ω).
Osservazione 7.1 Sia u(x, y) armonica e sia v(x, y) una sua armonica coniugata. In generale, però,
u(x, y) non è un’armonica coniugata di v(x, y).

Esempio 7.6 Sia u(x, y) = x una funzione armonica.


Un’armonica coniugata di u(x, y) è v(x, y) = y, infatti f (z) = u(x, y)+i·v(x, y) = x+i·y = z è analitica;
però u(x, y) = x non è un’armonica coniugata di v(x, y) = y infatti

f (z) = v(x, y) + i · u(x, y) = y + i · x = i · (x − i · y) = i · z non è analitica

Teorema 7.1 Sia f (z) = u(z) + i · v(z) : Ω → C; supponiamo che u, v ∈ C 1 (Ω) allora f è derivabile in
z0 = x0 + i · y0 se e solo se valgono le equazioni di Cauchy-Reimann2 in z0
∂u ∂v

 (x , y ) = (x0 , y0 )
 ∂x 0 0

 ∂y

 ∂u ∂v

 (x0 , y0 ) = − (x0 , y0 )
∂y ∂x
1 lim f (z) = f (z0 )
z→z0
2 nel seguito della trattazione tali equazioni saranno denominate C-R
66 CAPITOLO 7. ANALISI IN CAMPO COMPLESSO

Cioè
∂u ∂v

 (x , y ) = (x0 , y0 )
 ∂x 0 0

 ∂y
f è derivabile ⇔

 ∂u ∂v

 (x0 , y0 ) = − (x0 , y0 )
∂y ∂x
Dimostrazione 7.1 La dimostrazione bisogna eseguirla per entrambi i sensi dell’implicazione.

∂u ∂v

 (x , y ) = (x0 , y0 )
 ∂x 0 0

 ∂y
• f è derivabile ⇒ L’idea è quella di calcolare la derivata come limite

 ∂u ∂v

 (x0 , y0 ) = − (x0 , y0 )
∂y ∂x
del rapporto incrementale avvicinandosi a z lungo i due assi coordinati
f (z) − f (z0 ) f (x, y0 ) − f (x0 , y0 ) f (x, y0 ) − f (x0 , y0 )
f 0 (z0 ) = lim = lim = lim =
z → z0 z − z0 z → z0 x − x0 x→x 0 x − x0
z = (x, y0 ) z = (x, y0 )

u(x, y0 ) + i · v(x, y0 ) − u(x0 , y0 ) − i · v(x0 , y0 )


= lim =
x→x0 x − x0
 
u(x, y0 ) − u(x0 , y0 ) v(x, y0 ) − v(x0 , y0 ) ∂u ∂v
= lim +i· = (x0 , y0 ) + i · (x0 , y0 )
x→x0 x − x0 x − x0 ∂x ∂x
f (z) − f (z0 ) f (x0 , y) − f (x0 , y0 ) f (x0 , y) − f (x0 , y0 )
f 0 (z0 ) = lim = lim = lim =
z → z0 z − z0 z → z0 i · (y − y0 ) y→y0 i · (y − y0 )
z = (x0 , y) z = (x0 , y)

u(x0 , y) + i · v(x0 , y) − u(x0 , y0 ) − i · v(x0 , y0 )


= lim =
y→y0 i · (y − y0 )
 
u(x0 , y) + i · v(x0 , y) − u(x0 , y0 ) − i · v(x0 , y0 )
= lim −i · =
y→y0 y − y0
  
v(x0 , y) − v(x0 , y0 ) u(x0 , y) − u(x0 , y0 )
= lim +i· − =
y→y0 y − y0 y − y0
 
∂v ∂u
= (x0 , y0 ) + i · − (x0 , y0 )
∂y ∂y
Poichè il valore della derivata è indipendente dalla direzione scelta si ha che
 
∂u ∂v ∂v ∂u
f 0 (z0 ) = (x0 , y0 ) + i · (x0 , y0 ) = (x0 , y0 ) + i · − (x0 , y0 )
∂x ∂x ∂y ∂y
L’uguaglianza sopra è vera se sono uguali le parti reali e le parti immaginarie
∂u ∂v

 (x , y ) = (x0 , y0 )
 ∂x 0 0

 ∂y

 ∂v ∂u

 (x0 , y0 ) = − (x0 , y0 )
∂x ∂y
∂u ∂v

 (x , y ) = (x0 , y0 )
 ∂x 0 0

 ∂y
• f è derivabile ⇐

 ∂u ∂v

 (x0 , y0 ) = − (x0 , y0 )
∂y ∂x
Si assume che valgono le C-R e si verifica che ∃f 0 (z0 ); dall’enunciato si ha che u, v ∈ C 1 (Ω)
pertanto esiste lo sviluppo di Taylor al primo ordine (piano tangente)
∂u ∂u


 u(z) − u(z0 ) = (z0 ) · (x − x0 ) + (z0 ) · (y − y0 ) + o(|z − z0 |)z→z0

 ∂x ∂y

 ∂v ∂v
 v(z) − v(z0 ) =
 (z0 ) · (x − x0 ) + (z0 ) · (y − y0 ) + o(|z − z0 |)z→z0
∂x ∂y
7.4. ESERCIZI 67

f (z) − f (z0 ) u(z) + i · v(z) − u(z0 ) − i · v(z0 ) u(z) − u(z0 ) + i · [v(z) − v(z0 )]
lim = lim = lim =
z→z0 z − z0 z→z0 z − z0 z→z0 h z − z0 i
∂u ∂u ∂v ∂v
∂x (z0 ) · (x − x0 ) + ∂y (z0 ) · (y − y0 ) + i · ∂x (z0 ) · (x − x0 ) + ∂y (z0 ) · (y − y0 )
= lim =
z→z0
 ∂u h z − z0 i
∂v ∂u ∂v

(z
∂x 0 ) + i · (z
∂x 0 ) · (x − x0 ) + ∂y (z0 ) + i · ∂y (z0 ) · (y − y0 )
= lim =
z→z0
 ∂u z − z0 h i
∂v ∂v ∂u

∂x (z0 ) + i · ∂x (z0 ) · (x − x0 ) + i · ∂y (z0 ) − i · ∂y (z0 ) · (y − y0 )
= lim =
z→z0  ∂u z − z0 
∂v
(z0 ) · (x − x0 ) + i · ∂u ∂v
 
C-R (z0 ) + i · ∂x ∂x (z0 ) + ∂x (z0 ) · (y − y0 )
= lim ∂x =
z→z
0 z − z0
∂u ∂v

(z0 ) + i · ∂x (z0 ) · (z − z0 ) ∂u ∂v
= lim ∂x = (z0 ) + i · (z0 )
z→z0 z − z0 ∂x ∂x
Si è quindi riusciti a dimostrare che il limite del rapporto incrementale esiste e soprattutto che la
derivata vale
∂u ∂v
f 0 (z0 ) = (z0 ) + i · (z0 )
∂x ∂x

7.4 Esercizi
Esercizio 7.1 Determinare la derivata e l’insieme di derivabilità delle seguenti funzioni

• f (z) = ez
ez = ex · ei·y = ex · cos(y) + i · ex · sin(y)
Si osserva che u e v sono funzioni C 1 (R2 ) (addirittura sono C ∞ (R2 ), occorre quindi verificare la
veridicità delle C-R
∂u ∂v

 (z) = (z)  x
e · cos(x) = ex · cos(x)

∂x ∂y ⇒
∂u ∂v −ex · sin(x) = − (ex · sin(x))

 (z) = −
∂y ∂x

Poichè le C-R sono valide per ogni z ∈ C allora f (z) è derivabile in C e

∂u ∂v
f 0 (z) = (z) + i · (z) = ex · cos(y) + i · ex · sin(y) = ez
∂x ∂x

∂ez
∀z ∈ C, = ez
∂z

• f (z) = sin(z)
ei·z − e−i·z
sin(z) =
2·i
ei·z − e−i·z
∂ sin(z) ∂ 1 1
= 2·i = · i · ei·z − (−i) · e−i·z =

· i · ei·z + e−i·z = cos(z)

∂z ∂z 2·i 2·i
∂ sin(z)
∀z ∈ C, = cos(z)
∂z

• f (z) = cos(z)
ei·z + e−i·z
cos(z) =
2
ei·z + e−i·z
∂ cos(z) ∂ 1  1
= 2 = · i · ei·z + (−i) · e−i·z = · i · ei·z + e−i·z = − sin(z)

∂z ∂z 2 2
∂ cos(z)
∀z ∈ C, = − sin(z)
∂z
68 CAPITOLO 7. ANALISI IN CAMPO COMPLESSO

n
X
• f (z) = ai · z i
i=0
0 z − z0
poichè (z) = lim = 1 e sfruttando la derivata del prodotto si ha che
z→z0 z − z0
0
z2 = z · z = 1 · z + z · 1 = 2 · z
0
z3 = z2 · z = 2 · z · z + z2 · 1 = 3 · z2
0
procedendo per induzione si ha che (z n ) = n · z n−1 pertanto
n
! n
∂ X X
f 0 (z) = ai · z i = ai · z i+1
∂z i=0 i=1
n
! n
∂ X X
∀z ∈ C, ai · z i = ai · z i+1
∂z i=0 i=1

• f (z) = sinh(z)
ez − e−z
sinh(z) =
2
ez − e−z
∂ sinh(z) ∂ 1   1 
= 2 = · ez − −e−z = · ez + e−z = cosh(z)

∂z ∂z 2 2
∂ sinh(z)
∀z ∈ C, = cosh(z)
∂z
• f (z) = cosh(z)
ez + e−z
sinh(z) =
2
ez + e−z
∂ cos(z) ∂ 1   1 
= 2 = · ez + −e−z = · ez − e−z = sinh(z)

∂z ∂z 2 2
∂ cosh(z)
∀z ∈ C, = sinh(z)
∂z
cos(4 · z)
Esercizio 7.2 (15/02/2007) Determinare l’insieme de analiticità di f (z) = .
(2 · z + i) · (z 2 + 5)
Poichè cos(4 · z) è derivabile, perchè composizione di funzioni derivabili, e poichè il denominatore è un
polinomio e quindi derivabile si ha che f (z) è derivabile in tutto il dominio di f .

 
i
dom(f ) = C\{z ∈ C : 2 · z + i = 0, z 2 + 5 = 0} = C\ − , ±i · 5
2

 
i
f è derivabile in C\ − , ±i · 5
2
Esercizio 7.3 Dire dove è derivabile:
• f (z) = z
f (z) = z = x − i · y
∞ 2
Poichè u, v ∈ C (R ) si verificano le C-R.
∂u ∂v

 (z) = (z) 
1 = −1

∂x ∂y ⇒
∂u ∂v 0=0

 (z) = −
∂y ∂x
Poichè la prima equazione non vale per nessun z ∈ C allora z non è mai derivabile.
2
• f (z) = |z|
2
f (z) = |z| = x2 + y 2
Poichè u, v ∈ C ∞ (R2 ) si verificano le C-R.
∂u ∂v

 (z) = (z)  
2·x=0 x=0

∂x ∂y ⇒ ⇒
∂u ∂v 2 · y = 0 y=0

 (z) = −
∂y ∂x
2
Pertanto |z| è derivabile solo per z = 0.
Capitolo 8

Integrali

8.1 Definizioni: Curve in C


Si tratterà nello svolgimento γ : [a, b] → Ω ⊆ C curva continua, C 1 a tratti.

Definizione 8.1 [Punto iniziale, punto finale] Il punto γ(a) è detto punto iniziale, mentre il punto γb è
detto punto finale.

Definizione 8.2 [Curva chiusa] Una curva si dice chiusa se il punto iniziale coincide con il punto finale.

γ(a) = γ(b)

Definizione 8.3 [Parametrizzazione] Se C ⊆ C e C = γ([a, b]) allora γ si dice parametrizzazione di C.

Definizione 8.4 [Curva di Jordan o curva semplice] Una curva si dice di Jordan o semplice se la curva
non passa mai due volte per lo stesso punto, fatta eccezione del punto iniziale; cioè

∀c, d ∈ (a, b), γ(c) 6= γ(d)

Esempio 8.1
γ1 = z0 + r · ei·t , t ∈ [0, 2 · π]
γ1 è una curva di Jordan perchè è la parametrizzazione di un giro di circonferenza di raggio r e centro
z0 .
γ2 = z0 + r · ei·t , t ∈ [0, 4 · π]
γ2 non è una curva di Jordan perchè è la parametrizzazione di due giri di circonferenza di raggio r e
centro z0 .

8.2 Integrali curvilinei


Definizione 8.5 [Integrale di curva] L’integrale della curva γ è
Z b Z b Z b
γ(t) · dt := Re [γ(t)] · dt + i · Im [γ(t)] · dt
a a a

Re [γ(t)], Im [γ(t)] : C → R

Poichè l’integrale della curva si scompone in due integrali di funzione reale di variabile reale valgono tutte
le proprietà valide per gli integrali presentati nel corso di Analisi Matematica I.

69
70 CAPITOLO 8. INTEGRALI

Definizione 8.6 [Teorema fondamentale del calcolo integrale] Sia γ, Γ curve tali che Γ0 (t) = γ(t) allora
Z b Z b
γ(t) · dt = Γ0 (t) · dt = Γ(b) − Γ(a)
a a

Definizione 8.7 [Integrale curvilineo] Sia f : Ω ⊆ C → C continua e sia γ : [a, b] → Ω, C 1 a tratti su Ω
Z Z b
f (z) · dz := f (γ(t)) · γ 0 (t) · dt
γ a


La nuova ridefinizione dell’integrale è un integrale di una curva pertanto è possibile risolverlo mediante
la scomposizione della parte reale e della parte immaginaria.
Proprietà 8.1 Se γ1 , γ2 sono due diverse parametrizzazioni dello stesso sostegno che lo percorrono nello
stesso verso e lo stesso numero di volte allora
Z Z
f (z) · dz = f (z) · dz
γ1 γ2

Proprietà 8.2 Se γ1 , γ2 percorrono lo stesso sostegno lo stesso numero di volte ma con verso opposto
allora Z Z
f (z) · dz = − f (z) · dz
γ1 γ2

Proprietà 8.3 Se γ = γ1 ∪ γ2 allora


Z Z Z
f (z) · dz = f (z) · dz + f (z) · dz
γ γ1 γ2

Proprietà 8.4 Sia γ : [a, b] → C curva C 1 a tratti che percorre il sostegno una sola volta ( curva iniettiva)
allora Z !

f (z) · dz ≤ sup |f (z)| · L(γ)

γ z∈γ([a,b])
con Z b
L(γ) := |γ 0 (t)| · dt
a
detta lunghezza della curva.
Definizione 8.8 [Insieme regolare] Sia Ω ⊆ C aperto e connesso. Ω si dice regolare o regione con bordo
es ∂Ω (frontiera di Ω) è l’unione di un numero finito di curve di Jordan disgiunte.

Esempio 8.2 Ω1 = Br (z0 ) Ω1 è regolare poichè ∂Ω1 è racchiuso una circonferenza (curva di Jordan).
Ω2 = {z ∈ C : 1 < |z + i| < 2} ∂Ω2 è l’unione di due circonferenze disgiunte, pertanto Ω2 è regolare.
Ω3 = {z ∈ C : |z + 1| < 2, |z + 1| 6= 1} ∂Ω3 è l’unione di due curve  disgiunte ma Ω3 non è regolare
poichè l’insieme non è connesso (ad esempio i punti (−1, 0) e 21 , 0 non sono collegabili da una curva
che resti sempre in Ω3 )

8.2.1 Richiamo di Analisi Matematica II


Teorema 8.1 (di Gauss-Green) Sia A ⊆ R2 aperto, connesso e regolare e sia E ~ : A → R2 campo
1 2 ~ 1 3
vettoriale continuo tale che E ∈ C (A) allora
Z  Z   Z
~ ×E

~ · dx · dy = ∂b ∂a ~ · d~l
∇ − · dx · dy = E
A A ∂x ∂y ∂A

dove γ : [a, b] → R2 parametrizza ∂A percorrendolo una sola volta in senso positivo4


Z Z Z b
~ · d~l =
E ~ · d~s :=
E ~
E(γ(t)) · γ 0 (t) · dt
∂A ∂A a
1 funzioneche ad ogni punto associa un vettore, in generale E ~ : Rn → Rm
2 un campo vettoriale è continuo se ha le sue componenti continue
3 un campo vettoriale è di classe C 1 se ha le derivate parziali continue
4 geometricamente si intende verso positivo il verso di percorrenza che si ottiene quanto si lascia A sulla sinistra
8.2. INTEGRALI CURVILINEI 71

Teorema 8.2 (di Cauchy-Goursat) Sia A ⊆ C aperto, connesso e regolare e sia f : A → C continua
e analitica in A allora Z
f (z) · dz = 0
∂A

Dimostrazione 8.1 Si definiscono

f (z) = u(x, y) + i · v(x, y) γ : [a, b] → C parametrizzazione di ∂A


Z Z b
f (z) · dz := (u(γ(t)) + i · v(γ(t))) · (x0 (t) + i · y 0 (t)) ·dt =
∂A a | {z } | {z }
f (γ(t)) γ 0 (t)
Z b Z b
= [u · x0 − v · y 0 ] · dt + i · [v · x0 + u · y 0 ] · dt =
Zab a
Z b
0 0
= (u, −v) · (x , y ) · dt + i · (v, u) · (x0 , y 0 ) · dt =
Za Z a
Gauss−Green
= (u, −v) · d~l + i · (v, u) · d~l =
∂A
Z   ∂A Z  
∂v ∂u ∂u ∂v C−R
= − − · dx · dy + i · − · dx · dy =
ZA ∂x ∂y Z A ∂x ∂y
= 0 · dx · dy + i · 0 · dx · dy = 0
A A

Definizione 8.9 [Indice di avvolgimento] Sia Γ : [a, b] → C una curva di Jordan che circonda z0 ∈ C.
Si definisce indice di Γ Z
1 dz
IΓ = Ind(Γ, z0 ) := ·
2 · π · i Γ z − z0


Esempio 8.3 Calcolare Z


dz
I=
γ z − z0
con z0 ∈ C e r > 0; sulle curve

γ1 = [0, 2 · π] → C γ1 (t) = z0 + r · ei·t

γn = [0, 2 · n · π] → C γn (t) = z0 + r · ei·t


Z Z 2·π Z 2·π
dz 1 i·t
= · r · e · i · dt = i · dt = 2 · π · i
γ1 z − z0 0 r · ei·t 0
Z Z 2·n·π Z 2·n·π
dz 1
= · r · ei·t · i · dt = i · dt = 2 · n · π · i
γn z − z0 0 r · ei·t 0

Si osserva dunque che Z


1 dz
· =n
2·π·i γn z − z0
indica il numero di volte che la parametrizzazione γn apassa attorno a z0 in senso antiorario.

Dimostrazione 8.2 Sia Γ una curva di Jordan qualsiasi, contenente z0 ∈ C, si prende Br (z0 ) tale che
stia tutto all’interno dell’area racchiusa da Γ.
Per il teorema di Cauchy-Goursat si ha che
Z Z Z Z
dz dz dz dz
= − = −2·π·i=0
Γ∪Br (z0 ) z − z 0 Γ z − z 0 Br (z0 ) z − z0 Γ z − z0
Z
dz
IΓ = =2·π·i
γ z − z0
72 CAPITOLO 8. INTEGRALI

Osservazione 8.1 Sia f (z) analitica in Ω ⊆ C aperto. Siano γ1 , γ2 due curve di Jordan disgiunte
contenute in Ω, una interna all’altra allora
Z Z
f (z) · dz f (z) · dz
γ1 γ2

Infatti per Cauchy-Goursat applicato all’area racchiusa tra le due curve si ha che
Z Z Z Z Z
f (z) · dz = f (z) · dz − f (z) · dz = 0 ⇒ f (z) · dz = f (z) · dz
∂A γ1 γ2 γ1 γ2

Teorema 8.3 (formula di Cauchy) Sia A ⊆ C un insieme aperto e regolare5 , z0 ∈ A e f : A → A


continua e analitica in A
allora Z
1 f (z)
f (z0 ) = · · dz
2 · π · i ∂A z − z0
∂A è percorsa una sola volta con senso positivo
f (z)
Dimostrazione 8.3 Si considera g(z) = , g è analitica in A pertanto lo è anche in A\Br (z0 ), ∀r ∈
z − z0
R+ : Br (z0 ) ⊂ A.
L’insieme A\Br (z0 ) cosı̀ definito è regolare e la sua frontiera è
∂(A\Br (z0 )) = ∂A ∪ ∂Br (z0 )
sotto queste condizioni è possibile applicare il teorema di Cauchy-Goursat pertanto
Z Z Z
g(z) f (z) f (z)
0= · dz = · dz − · dz
∂(A\Br (z0 )) z − z0 ∂A z − z0 ∂Br (z0 ) z − z0
Z Z
f (z) f (z)
· dz = · dz, ∀r ∈ R+ : Br (z0 ) ⊂ A
∂A z − z0 ∂Br (z0 ) z − z0
passando al limite si ha
Z Z Z
f (z) f (z) f (z)
· dz = lim+ · dz = lim+ · dz
∂A z − z0 r→0 ∂A z − z0 r→0 ∂Br (z0 ) z − z0

f (z) − f (z0 ) + f (z0 )


Z Z
f (z)
· dz = · dz =
∂Br (z0 ) z − z0 Z∂Br (z0 ) z − z0
f (z) − f (z0 )
Z
1
= · dz + f (z0 ) · · dz =
Z∂Br (z0 ) z − z 0 ∂Br (z0 ) z − z0
f (z) − f (z0 )
= · dz + f (z0 ) · 2 · π · i
∂Br (z0 ) z − z0
!
f (z) − f (z0 )
Z Z
f (z)
lim · dz = lim · dz + f (z0 ) · 2 · π · i
r→0+ ∂Br (z0 ) z − z0 r→0+ ∂Br (z0 ) z − z0
poichè (come visto in precedenza si ha)
Z
f (z) − f (z0 ) |f (z) − f (z0 )|
· dz ≤ sup ·2·π·r =

z − z0 |z − z0 |

∂Br (z0 ) z∈Br (z0 )
|f (z) − f (z0 )|
= sup ·2·π·r =
z∈Br (z0 ) r
= sup |f (z) − f (z0 )| · 2 · π
z∈Br (z0 )
 
poichè f è continua lim+ |f (z) − f (z0 )| = 0
r→0
Z
f (z) − f (z0 )
lim · dz ≤ lim sup |f (z) − f (z0 )| · 2 · π = 0

r→0+ ∂Br (z0 ) z − z0 r→0+ z∈Br (z0 )

É, quindi, possibile concludere che


Z
f (z)
· dz = f (z0 ) · 2 · π · i
∂A z − z0
5 regolare ≡ connesso, limitato con bordo composto da un numero finito di curve di Jordan disgiunte
8.3. ESERCIZI 73

Definizione 8.10 [formula di Cauchy per le derivate] Sia f analitica in A aperto, regolare; continua su
A e regolare
Z
n! f (w)
∀n ∈ N : ∃f (n) (z) = · dw
2 · π · i ∂A (w − z)n+1


Dimostrazione 8.4 Si può dimostrare, non lo si fa, che si può derivare f (z) sotto il segno di integrale,
pertanto
Z
1 f (w)
f 0 (z) = · dw
2 · π · i ∂A (w − z)2
Z
00 2 f (w)
f (z) = · dw
2 · π · i ∂A (w − z)3
per induzione si ha che
Z
(n) n! f (w)
∀n ∈ N : ∃f (z) = · dw
2·π·i ∂A (w − z)n+1

Corollario 8.1 Sotto l’ipotesi di f analitica in un insieme apero si ha che f ∈ C ∞ (A); in particolare si
ha che se f (z) = u(x, y) + i · v(x, y)
u, v ∈ C ∞ (A)

In R C 1 ⊃ C 2 ⊃ . . . ⊃ C ∞
In C C 1 = C 2 = . . . = C ∞

8.3 Esercizi
Esercizio 8.1 Calcolare
Z b
I= ei·t · dt
a

Sfruttando la definizione di integrale si ha


Z b Z b Z b
I = ei·t · dt = cos(t) · dt + i · sin(t) · dt =
a a a
= [sin(t)]ba
+i· [− cos(t)]ba
= sin(b) − sin(a) − i · cos(b) + i · cos(a) =
= −i · (cos(b) + i · sin(b)) + i · (cos(a) + i · sin(a)) =
−i · ei·b + i · ei·a = −i · (ei·b − ei·a )

Sfruttando il teorema fondamentale si ha

b b
ei·t
Z 
1
I= ei·t · dt = = · (ei·b − ei·a ) = −i · (ei·b − ei·a )
a i a i

Esercizio 8.2 (18/04/2005) Calcolare


Z
I= (2 · z + 3) · dz
γ

dove γ è il cammino chiuso semplice avente come sostegno la circonferenza di centro Z0 = 0 e raggio
r = 1, percorsa in senso antiorario.
Si ha subito che
γ(t) = z0 + r · ei·t = ei·t , t ∈ [0, 2 · π]
Z Z 2·π Z 2·π Z 2·π
0 −i·t i·t
2 · i + 3 · i · ei·t · dt =
  
I = (2 · z + 3) · dz = (2 · γ(t) + 3) · γ (t) · dt = 2·e + 3 · i · e · dt =
γ 2·π 0 0 0
= 2 · i · t + 3 · ei· t 0 = 4 · i · π + 3 − 0 − 3 = 4 · i · π
74 CAPITOLO 8. INTEGRALI

Esercizio 8.3 Calcolare Z


I= eπ·z · dz
γ

dove γ ha come sostegno il segmento che va da i a 2i .


Si parametrizza la curva in senso inverso, perchè più comodo.
 
− 1
γ (t) = i · t, t ∈ ,1
2
Z 1  i·π·t 1  i·π·t 1 π
ei·π − ei· 2 1−i
Z Z
π·z π·z i·π·t e e
I= e ·dz = − e ·dz = − e ·i·dz = −i· =− =− =
γ γ − 1
2
i · π 1 π 1 π π
2 2

Esercizio 8.4 (15/02/2007) Si calcoli


Z
I= (2 − i · z) · dz
γ

dove
γ : [0, 1] → C γ(t) = (t, t − t2 ) = t + i · (t − t2 )
Provando a risolvere l’integrale attraverso la definizione si potrebbero
Z avere passaggi molto lunghi, ma
applicando Cauchy-Goursat si ha che poichè f (z) è analitica allora f (z) · dz = 0 con γ̃ curva di
γ̃∪γ −
natura più semplice rispetto a γ ma con stasso punto iniziale e finale.
γ̃ = t t ∈ [0, 1]
pertanto
1 1
t2
Z Z Z 
i
I= (2 − i · z) · dz = (2 − i · z) · dz = (2 − i · t) · dt = 2 · t − i · =2−
γ γ̃ 0 2 0 2
Esercizio 8.5 Calcolare Z
12 · z 2 − 4 · i · z · dz

I=
γ

su γ una curva che parametrizza l’insieme


C = z = x + i · y : y = x3 − 3 · x2 + 4 · x − 1, 1 ≤ x ≤ 2


Tracciando il grafico di C si osserva che la curva parte dal punto (1, 1) e giunge nel punto (2, 3) effettuando
il percorso una sola volta. Poichè f è analitica allora si può prendere un percorso alternativo che abbia
come punti iniziale e finale gli stessi punti di C. Si formano quindi
γ1 = t + i t ∈ [1, 2] γ2 = 2 + i · t t ∈ [1, 3]
in questo modo γ − ∪ γ1 ∪ γ2 forma un percorso chiuso e per il teorema si ha che
Z Z Z Z
I = f (z) · dz = f (z) · dz = f (z) · dz + f (z) · dz =
Zγ2 γ1 ∪γ2 γ1 Z γ2
3
· 12 · (t + i)2 − 4 · (t + i) · dt + 12 · (2 + i · t)2 − 4 · (2 + i · t) · dt =
 
=
1Z 1
2 Z 3
2
−3 · t2 + 10 + i · 11 · t · dt =
 
=4· · 3 · t − t − 3 + i · (6 · t − 1) · dt + 4 ·
1 1 3 !
t2  2 t2
 
3 2 3
=4· t − −3·t+i· 3·t −t + −t + 10 · t + 11 · i · =
2 1 2 1
 
5
=4· + 8 · i − 6 + 44 · i = −14 + 208 · i
2
Esercizio 8.6 Calcolare Z
1 dz
I= ·
2·π·i γ z − z0
dove γ curva di Jordan con senso positivo e sia z0 ∈ C all’interno di γ Poichè γ è una curva di Jordan
(percorre il sostegno, C, una sola volta) si ha
I = Ind(γ, z0 ) = 1
1
É possibile utilizzare tale formula in quanto f (z) = z−z0 è analitica in C\Br (z0 ), ∀r ∈ R+ : Br (z0 ) ⊂ C
8.3. ESERCIZI 75

Esercizio 8.7 Sia γ(t) = 2 · cos(t) + i · sin(t), t ∈ [−2 · π, 4 · π]



Z 
 a) 2 · π · i
dz 
b) 0
=
γ z − 1 
 c) −4 · π · i
d) 6 · π · i

γ è la parametrizzazione di un ellisse.

In generale un ellisse ha la seguente equazione cartesiana


(x − x0 )2 (y − y0 )2
+ = 1 a, b ∈ R+
a2 b2
x = x0 + a · cos(t)
t ∈ [0, 2 · π]
y = y0 + b · sin(t)

Prendendo Br (1), ∀r ∈ R+ : Br (1) ⊂ {area racchiusa da γ} si ha


Z Z 4·π
dz 1
= · i · r · ei·t · dt = 6 · π · i
γ z−1 −2·π r · ei·π

Pertanto la soluzione corretta è d.


É possibile farlo poichè z = 1 è all’interno dell’area racchiusa da γ (se fosse esterno l’integrale varrebbe
0).

Esercizio 8.8 (settembre 2006) Calcolare

z 12
Z
I= · dz
C ecos(z)

con C = {z ∈ C : |z + 2| = 1}6 .
z 12
Poichè f (z) = ecos(z) è analitica in C (cmposizione di funzioni analitiche) si ha per il teorema di Cauchy-
Goursat che Z
f (z) · dz = 0
C

Esercizio 8.9 (17/11/2007) Calcolare


Z
2 · |z| − 3 · z 2 · dz

I=
γ

con γ parametrizzazione di C = {z ∈ C : |z| = 2}.


Il teorema di Cauchy-Goursat non può essere usato poichè f non è analitica (è una composizione di
funzioni non analitiche, |z|) pertanto è necessaro ricorrere alla definizione.

γ(t) = 2 · ei·t t ∈ [0, 2 · π]


Z Z Z Z
Cauchy−Goursat
2 · |z| − 3 · z 2 · dz = 2 · |z| · dz − 3 · z 2 · dz

I = = = 2 · |z| · dz =
γZ γ γ γ
2·π Z 2·π
2·t
2 · ei·t · 2 · i · ei·t · dt = 8 · ei·t ·i · ei·t · dt = 6 · ei·t
 
=2· 0
=0
0 0 | {z }
1

I=0

Esercizio 8.10 Calcolare Z


I= z · dz
C

dove C = {z = t2 + i · t, t ∈ [0, 2]}


Poichè f non è analitica pertanto occorre ricorrere alla definizione
Z 2 Z 2 Z 2
(t2 − i · t) · (2 · t + i) · dt = 2 · t3 − i · t2 + t · dt =
 
I = t2 + i · t · (2 · t + i) · dt =
0 4 2 0 0
t t3 t2 8 8
= −i· + = 8 − i · + 2 = 10 − i ·
2 3 2 0 3 3
6 quando non sono indicate le caratteristiche di una curva si intendono curve percorse una sola volta in senso positivo
76 CAPITOLO 8. INTEGRALI

Esercizio 8.11 (12/02/2008) Calcolare


e−5·i·z
Z
I= · dz
C z2 + 4 · i · z − 3

con C = {z ∈ C : |z| = 3}
Occorre verificare dove la funzione è definita, e quindi l’insieme di analiticità (essendo il rapporto di
funzioni analitiche nel loro dominio l’indieme di analiticità è dom(f )).

2 −4 · i ± −16 + 12
z + 4 · i · z − 3 = 0 ⇔ z1,2 = = −2 · i ± i ⇒ dom(f ) = C\ {−3 · i, −1}
2
e−5·i·z
Z
I= · dz
C (z + i) · (z + 3 · i)
poichè z = −3 · i (polo di f (z)) non è contenuto nell’area racchiusa da C si può riscrivere l’integrale nel
seguente modo
e−5·i·z
Z
1
I= · · dz
C z + 3 · i z + i
Mediante questa riscrittura è possibile applicare la formula di Cauchy con
e−5·i·z
f (z) = z0 = −i
z+3·i
pertanto
e−5·i·(−i) e−5
I = 2 · π · i · f (−i) = 2 · π · i · =2·π·i· = e−5 · π
−i + 3 · i 2·i
Esercizio 8.12 Calcolare
ez · (z 2 − 3)
Z
I=
γ 2 · z2 + 3
( r ! )
2 3
dove γ ha come sostegno C = z = x + i · y : x2 + · y − =1
3 2
√   √ 
 
3 
2 · z2 + 3 = 2 · z2 + = 2 · z + i · 32 · z − i · 32 =
2
 
z 2 z 2
e · (z − 3)  e · (z − 3) 
Z
1
I =  q · q · dz = 2 · π · i   q  =
γ 2· z+i· 3 3 3
2 z − i · 2 2 · z + i · 2 √
z=i· 32
√ 3  q 2 
ei· 2 · i · 32 − 3 √3
ei· 2 · − 23 − 3

=2·π·i·  q q  =2·π·i·  q  =
2 · i · 32 + i · 32 2 · i · 2 · 32
√3 √
π · ei· 2 · − 92
 √
i· 32 3 · 3
= √ √ = −π · e · √
2· 3 2· 2
Esercizio 8.13 (06/09/2005) Calcolare
Z
1
I= · dz
C z 2 · (z 2 + 9)
dove C è il bordo dell’insieme {z ∈ C : |z − 1| < 2}
1 1
= 2
z 2 · (z 2 + 9) z · (z + i · 3) · (z − i · 3)
Poichè il polo doppio in z = 0 è l’unico polo all’interno dell’insieme delimitato da C allora si può definire
1
f (z) =
z2 +9
una f analitica in C pertanto si ha Z
f (z)
I= 2
· dz
C z
Utilizzando la formula di Cauchy per le derivate (n = 1) si ha
 
2 · π · i ∂f 2·z
I= · (z0 ) = 2 · π · i · − 2 2
=0
1! ∂z (z + 9) z=0
8.3. ESERCIZI 77

Esercizio 8.14 Calcolare


ez+1
Z
I=
γ (z − 2)24
dove γ è il sostegno di C = {|z| = 4}
Utilizzando la formula per le derivate di Cauchy con n = 23 e f (z) = ez+1 analitica

2 · π · i ∂ 23 ez+1

2·π·i 3
I= · 23
= ·e
23! ∂z
z=2 23!
78 CAPITOLO 8. INTEGRALI
Capitolo 9

Successioni e Serie

Definizione 9.1 [Successioni in C] Una successione di numeri complessi zn ∈ C converge a l ∈ C se

lim |zn − l| = 0
n→+∞

Prosizione 9.1 Se zn = an + i · bn , an , bn ∈ R converge a l = a + i · b allora an converge ad a e bn


converge a b.

9.1 Serie in C
Definizione 9.2 [Serie complessa] Una serie si dice complessa se il termine generale della serie è
complesso
+∞
X
cn , cn ∈ C
n=0


+∞
X
Prosizione 9.2 (Convergenza serie complessa) Una serie complessa, cn , converge alla somma
n=0
s se converge la successione delle somme parziali; cioè
+∞ k
!
X X
cn = s ⇔ lim ck =s
k→+∞
n=0 n=1

Proprietà 9.1 (Convergenza della Serie) Data la serie complessa


+∞
X
cn
n=0

1. La serie converge se converge la serie delle parti reali e la serie delle parti immaginarie.
 
2. Se la serie converge allora lim cn = 0 cioè anche se lim |cn | = 0
n→+∞ n→+∞

+∞
X +∞
X
3. Se converge la serie in valore assoluto, |cn |, converge allora cn converge. Se si ha conver-
n=0 n=0
genza assoluta allora si ha anche convergenza semplice (non vale l’opposto).

9.2 Serie di potenze in C


Definizione 9.3 [Serie di potenze] Si dice serie di potenze centrata in z0 ∈ C la serie
+∞
X
an · (z − z0 )n , an , z ∈ C
n=0

79
80 CAPITOLO 9. SUCCESSIONI E SERIE


+∞
X
Teorema 9.1 (Convergenza serie di potenze) Se S(z) := an · (z − z0 )n allora ∃R ∈ R+
0 (raggio
n=0
di convergenza)
• S(z) converge se z ∈ BR (z0 )
• S(z) non converge se z ∈ C\BR (z0 )
Definizione 9.4 [Raggio di convergenza] Si definisce raggio di convergenza
1 1
R= an+1 =
p
lim lim n |an |
n→+∞

n→+∞ an
per convenzione se il limite vale 0 allora R = +∞; mentre se il limite vale +∞ allora R = 0

Definizione 9.5 [Serie geometrica] La serie
+∞
X
zn
n=0

1
si dice serie geometrica; tale serie converge a 1−z con |z| < 1

Teorema 9.2 (Derivata per serie) Sia
+∞
X
S(z) = an · (z − z0 )n
n=0

una serie convergente in z ∈ BR (z0 ); allora


+∞
X
∃S 0 (z) = an · n · (z − z0 )n−1 , z ∈ BR (z0 )
n=1

Corollario 9.1 Le serie di potenze hanno infinite derivate nell’insieme di convergenza.


Teorema 9.3 (sviluppo in serie di Taylor) Sia Ω ⊆ C aperto e sia f : Ω → C analitica e sia z0 ∈ Ω,
∀r > 0 : Br (z0 ) ⊆ Ω si ha che
+∞ (n)
X f (z0 )
f (z) = · (z − z0 )n , ∀z ∈ Br (z0 )
n=0
n!
Z
(n) n! f (w)
f (z0 ) = · · dw con C circonferenza arbitraria in Ω di centro z0
2·π·i C (w − z0 )n+1
Dimostrazione 9.1 Sia 0 < r1 < r, per la formula di Cauchy per le derivate si ha che
Z Z
1 f (w) 1 f (w)
∀z ∈ Br1 (z0 ), f (z) = · · dw = · · dw =
2 · π · i ∂Br1 w − z 2 · π · i C z − z0 − z + z0
Z
1 f (w)
= · · dw =
2·π·i C (w − z0 ) − (z − z0 )
Z
1 f (w)
= · h i · dw =
2·π·i C (w − z0 ) · 1 − z−z0
w−z0

+∞  n
f (w) X z − z0
Z
1 T
= · · · dw =
2·π·i C w − z0 n=0 w − z0

+∞  Z    +∞ (n)
T
X 1 f (w) n
X f
= · · dw · (z − z0 ) = · (z − z0 )n
n=0
2·π·i C (w − z0 )n+1 n=0
n!
9.3. ESERCIZI 81

T
“=” suppone la conoscenza di un teorema che consente di trasportare il simbolo di serie “fuori” dal
simbolo di integrale.
Inoltre l’indipendenza di C deriva dall’applicazione del teorema di Cauchy-Gousart.

Esempio 9.1 (Sviluppi di Taylor notevoli)


+∞ n
X z
ez = R = +∞
n=0
n!
+∞
X (−1)n · z 2·n+1
sin(z) = R = +∞
n=0
(2 · n + 1)!
+∞
X (−1)n · z 2·n
cos(z) = R = +∞
n=0
(2 · n)!
+∞
X z 2·n+1
sinh(z) = R = +∞
n=0
(2 · n + 1)!
+∞
X z 2·n
cosh(z) = R = +∞
n=0
(2 · n)!

9.3 Esercizi
Esercizio 9.1 (06/09/2005) Determinare l’insieme di convergenza di
+∞
X (z − 4)n
n=1
n3 · (9 · i)n

1
Si osserva che la serie è una serie di potenza centrata in z0 = 4 con an =
n3 · (9 · i)n

n3 · (9 · i)n

1 an+1 1
= ⇒R=9
= lim = lim
3 n
R n→+∞ an n→+∞ (n + 1) · 9 · i · (9 · i) 9
r
1 pn n 1 1 1
= lim |ab | = lim = lim √ 3 = ⇒R=9
R n→+∞ n→+∞ n3 · 9n n→+∞ n n · 9 9
Se |z − z0 | = R, cioè |z − 4| = 9, si considera

1 n 1 1
|an · (z − z0 )n | = · |z − 4| = 3 n · 9n = 3
n3 · 9n n ·9 n
+∞ +∞ +∞
X 1 X
n
X
poichè 3
converge allora converge |an · (z − z 0 ) | e di conseguenza anche an ·(z−z0 )n pertanto
n=0
n n=0 n=0
la serie
+∞
X
an · (z − z0 )n
n=0

converge per z ∈ B9 (4)

Esercizio 9.2 (03/09/2009) Determinare l’insieme di convergenza di


+∞
X (n + 3) · z 2·n
n=0
in · 5n

+∞ +∞
X (n + 3) · z 2·n X (n + 3)
n n
= n · 5n
· wn , w = z 2
n=0
i · 5 n=0
i
Si studia la serie in w e poi si trasformano i risultati in z.

(5 · i)n

1 n+3+1 n+4 1
= lim · = lim = ⇒ Rw = 5
Rw n→+∞ 5 · i · (5 · i)n n + 3 n→+∞ 5 · (n + 3) 5
82 CAPITOLO 9. SUCCESSIONI E SERIE

Se |w| = 5 si considera il modulo del termine n-esimo


(n + 3) · 5n

|an · wn | = =n+3
in · 5n

poichè lim |an | 6= 0 allora la serie non converge per |w| = 5 Il raggio di convergenza trovato precen-
n→+∞
dentemente riguarda la serie in w, pertanto la serie converge per

|w| = z 2 < 5 ⇒ |z| < 5

Pertanto la serie converge per z ∈ B√5 (0)

Esercizio 9.3 (17/02/2011) Trovare l’insieme di convergenza e disegnarlo della serie


+∞
X e−2·n·i·z
n=2
ei · [n3 + (−1)n ]

+∞ +∞
X e−2·n·i·z X wn
i 3 n
= i 3 n]
, w = e−2·i·z
n=2
e · [n + (−1) ] n=2
e · [n + (−1)
ei · [n3 + (−1)n ]

1 an+1
= 1 ⇒ Rw = 1
= lim = lim
Rw n→+∞ an n→+∞ ei · [(n + 1)3 − (−1)n ]
Se |w| = 1
1 1 n→+∞ 1
|an · wn | =

i 3 n
= →
e · (n + (−1) ) n + (−1)n
3 n3
+∞
X +∞
X
n
Poichè |an · w | converge allora an · wn converge. Pertanto la serie converge se
n=2 n=2

|w| ≤ 1 ⇒ e−2·i·z ≤ 1

−2·i·z
e = eRe[−2·i·z] = eRe[−2·i·x+2·y] = e2·y ≤ 1
Pertanto la serie converge in
{z ∈ C : Im [z] ≤ 0}

Esercizio 9.4 Sia f : C → C analitica tale che f (z) = 0, ∀z ∈ C. Provare che f (z) = 0, ∀z ∈ C.
Per il teorema dello sviluppo in serie si ha che
+∞ (n)
X f (0) n
f (z) = · z R = +∞
n=0
n!

∀n, f (n) (0) = 0 poichè f (z) = 0 se z ∈ B1 (0) di conseguenza


+∞
X 0
f (z) = · zn = 0
n=0
n!

Esercizio 9.5 (12/02/2008) Ricavare l’insieme di convergenza e la somma di


+∞
X (z + 3 · i)2·n+1
n=0
(3 + 4 · i)n

+∞ +∞
X (z + 3 · i)2·n+1 X
n (z + 3 · i)2
= (z + 3 · i) · w , w =
n=0
(3 + 4 · i)n n=0
3+4·i
poichè si ha usa serie geometrica si sa che Rw = 1 pertanto
+∞
X 1
wn =
n=0
1−w

+∞
X 1 1 (z + 3 · i) · (3 + 4 · i)
(z + 3 · i) · wn = (z + 3 · i) · = (z + 3 · i) · =
1−w (z + 3 · i)2 3 + 4 · i − (z + 3 · i)2
n=0 1−
3+4·i
9.3. ESERCIZI 83

(z + 3 · i)2 |z + 3 · i|2 √

|w| = = < 1 ⇒ |z + 3 · i| < 5
3+4·i 5
La serie converge per z ∈ B√5 (−3 · i)
+∞
X (z + 3 · i)2·n+1 (z + 3 · i) · (3 + 4 · i)
n
=
n=0
(3 + 4 · i) 3 + 4 · i − (z + 3 · i)2

Esercizio 9.6 Determinare l’insieme di convergenza e la somma di


+∞
X (3 · i)n · (z − i)n
n=1
n!

+∞
X
w wn
Ricordando che e = , R = +∞ si ha che
n=1
n!

+∞ +∞
X (3 · i)n · (z − i)n X [(3 · i) · (z − 1)]n
= = e(3·i)·(z−i) − 1, R = +∞
n=1
n! n=1
n!

L’insieme di convergenza pertanto è tutto C


+∞
X (3 · i)n · (z − i)n
= e(3·i)·(z−i) − 1, ∀z ∈ C
n=1
n!

Esercizio 9.7 Determinare l’insieme di convergenza e la somma di


+∞ +∞ +∞
X X n X
e2·n·z+i·n·z = e2·z+i·z = wn , w = e2·z+i·z
n=1 n=1 n=1

+∞
X 1
wn = − 1, ∀w : |w| < 1
n=1
1−w
+∞
X 1 e2·z+i·z
e2·n·z+i·n·z = − 1 =
n=1
1 − e2·z+i·z 1 − e2·z+i·z

∀z : e2·z+i·z = e2·x+2·i·y+i·x−y < 1 ⇒ e2·x−y < 1 ⇒ 2 · x − y < 0 ⇒ y > 2 · x


+∞
X e2·z+i·z
e2·n·z+i·n·z = , ∀z ∈ {w ∈ C : Im [w] > 2 · Re [w]}
n=1
1 − e2·z+i·z

Esercizio 9.8 (21/09/2011) Determinare l’insieme di convergenza di


+∞ √
X 3
n · (z + i)4·n
n=1
2 · i · n2 + (i + 3) · log n

+∞ √ +∞ √
X 3
n · (z + i)4·n X 3
n
2 + (i + 3) · log n
= 2 + (i + 3) · log n
· wn , w = (z + i)4
n=1
2 · i · n n=1
2 · i · n
Utilizzando il criterio del rapporto si ha

2 · i · n2 + (i + 3) · log(n)
3

an+1 n+1
lim = lim · √ =1⇒R=1
n→+∞ an n→+∞ 2 · i · (n + 1)2 + (i + 3) · log(n + 1) 3
n
Se |w| = 1 si ha
√ √ √
n · wn

3
=
3
n n→+∞ 3 n
→ 1 1
2 · i · n2 2 · i · n2− 13 = 2 · n 53
=
2 · i · n2 + (i + 3) · log(n) 2 · i · n2 + (i + 3) · log(n)

+∞ +∞
X X 1
|an · wn | = 5 converge
n=1 n=1 2 · n3
Pertanto l’insieme di convergenza della serie è
|w| ≤ 1 ⇒ (z + i)4 ≤ 1 ⇒ |z + i| ≤ 1 ≡ z ∈ B1 (−i)

84 CAPITOLO 9. SUCCESSIONI E SERIE
Capitolo 10

Teorema di Laurent e dei Residui

Teorema 10.1 (Teorema di Laurent) Siano 0 ≤ r1 < r2 ≤ +∞ e sia f analitica in {r1 < |z − z0 | <
r2 }, z0 ∈ C, allora
+∞ +∞ +∞
X n
X c−k X
f (z) = cn · (z − z0 ) := k
+ cn · (z − z0 )n , ∀z ∈ Br2 (z0 )\Br1 (z0 )
n=−∞ n=1
(z − z0 ) n=0

dove Z
1 f (w)
cn := · dw
2·π·i C (w − z0 )n+1
con C una qualunque circonderenza di centro z0 e raggio r ∈ (r1 , r2 )

Definizione 10.1 [Singolarità isolata di f ] Sia Ω aperto, z0 ∈ Ω e sia f (z) analitica in Ω\{z0 }, si dice
che z0 è una singolarità isolata di f .

Sia r > 0 e Br (z0 ) ⊆ Ω e sia


+∞
c−2 c−1 X
f (z) = . . . + 2
+ + cn · (z − z0 )n
(z − z0 ) z − z0 n=0

Definizione 10.2 [Residuo di f ] Si definisce residuo di f in z0 la quantità


Z
1
Resf (z0 ) := c−1 = · f (w) · dw
2·π·i c


Definizione 10.3 [Polo di ordine n] Se


+∞
c−n c−1 X
f (z) = n
+ ... + + cn · (z − z0 )n
(z − z0 ) z − z0 n=0

con c−n 6= 0 e c−k = 0, ∀k > n


z0 si dice polo di ordine n, in particolare se n = 2 z0 si dice polo doppio, mentre se n = 1 si dice polo
semplice.


Definizione 10.4 [Parte principale di f ] Si definisce parte principale di


+∞ +∞
X c−k X
f (z) = k
+ cn · (z − z0 )n
n=1
(z − z 0 ) n=0

la parte di serie con potenze negative di (z − z0 ) cioè


+∞
X c−k
n=1
(z − z0 )k

85
86 CAPITOLO 10. TEOREMA DI LAURENT E DEI RESIDUI

Definizione 10.5 [Punto di singolarità essenziale di f ] Si definisce z0 punto di singolarità essenziale di


f (z) se la parte principale contiene un numero infinito di termini (cioè ha un numero finito di c−k 6= 0)


+∞
X
Definizione 10.6 [Zero di ordine h] Se f (z) = cn · (z − z0 )n con h ∈ N+ , z0 si dice singolarità
n=h
eliminabile o apparente, se ch 6= 0 z0 si dice zero di ordine h.

10.1 Metodi di calcolo dei Residui


Il calcolo dei residui può essere eseguito attraverso la determinazione della serie di Laurent, tuttavia vi
sono dei metodi che consentono il loro calcolo senza la determinazione esplifica della serie di Laurent
associata ad f .

g(z)
Teorema 10.2 (Calcolo dei residui, poli semplici) Se z0 è un polo sempolice per f (z) allora f (z) = ,
z − z0
con g analitica in Ω; sotto quest’ipotesi

Resf (z0 ) = g(z0 ) = lim (z − z0 ) · f (z)


z→z0

Dimostrazione 10.1 Se z0 è un polo semplice allora


+∞
" +∞
#
c−1 X 1 X
f (z) = + cn · (z − z0 )n = · c−1 + cn · (z − z0 )n+1
z − z0 n=0 z − z0 n=0

+∞
X
g(z) = c−1 + cn · (z − z0 )n+1
n=0

Teorema 10.3 (Calcolo dei residui, poli multipli) Se z0 è un polo di ordine n ∈ N con n > 1 allora

g(z)
f (z) =
(z − z0 )n

con g analitica in Ω e g(z0 ) 6= 0


allora

g (n−1) (z0 ) 1 ∂ n−1 g(z) 1 ∂n


Resf (z0 ) = = lim · = lim · [(z − z0 )n · f (z)]
(n − 1)! z→z0 (n − 1)! ∂z n−1 z→z0 (n − 1)! ∂z n

n(z)
Osservazione 10.1 Se f (z) = con n, d analitiche in Ω con
d(z)

n(z0 ) 6= 0 d(z0 ) = 0 d0 (z0 ) 6= 0

n(z0 )
allora z0 è un polo semplice di f e Resf (z0 ) =
d0 (z0 )

Teorema 10.4 (dei Residui) Se C è una curva do Jordan e se f è analitica all’interno di C (è
sufficiente che C racchiuda le singolarità), tranne che nelle singolarità isolate z1 , z2 , . . . , za
Z a
X
f (z) · dz = 2 · π · i · Resf (() zk )
C k=1
10.2. ESERCIZI 87

Dimostrazione 10.2 Per il teorema di Cauchy-Goursat poichè il bordo dell’insieme preso in esame è
a
[
∂Ω = ∂Brk ∪ C
k=1

Integrando su ∂Ω, ricordando che le varie curve devono essere percorse in senso positivo si ha che
Z Z a Z !
X
0 = f (z) · dz = f (z) · dz − f (z) · dz =
∂Ω C k=1 ∂Brk

Z a
X Z a
X
= f (z) · dz − 2 · π · i · Resf (zk ) ⇒ f (z) · dz = 2 · π · i · Resf (() zk )
C k=1 C k=1

10.2 Esercizi
Esercizio 10.1 (17/11/2007) Trovare lo sviluppo di Laurent in z0 = 0 nella regione C\{0} di

sinh 2 · z 2
f (z) =
z 11
e ricavare i residui e le singolarità di f .
Attraverso lo sviluppo di McLaurin si ha
+∞ +∞ 2·n+1 +∞ 2·n+1
1 X (2 · z 2 )2·n+1 X 2 · z 4·n−9 2 23 25 X 2 · z 4·n−9
f (z) = · = = + + +
z 11 n=0 (2 · n + 1)! n=0
(2 · n + 1)! |z
9 z5
3! ·{z 5! · z} n=3 (2 · n + 1)!
potenze negative | {z }
potenze positive

25 1
Resf (0) = coefficiente di
5! z
z0 = 0 è un polo di ordine 9 di f

Esercizio 10.2 Determinare lo sviluppo di Laurent di f (z) in z0 = 0 e il residuo re le singolarità.


 
4 2
f (z) = z · cos
z

Attraverso lo sviluppo di McLaurin si ha


+∞  2·n X+∞ +∞
4
X (−1)n 2 (−1)n · 4n 4 4 2 42 43 X (−1)n · 4n
f (z) =z · · = = z − · z + − +
n=0
(2 · n)! z n=0
(2 · n)! · z 2·n−4 | 2 {z 4!} 6! · z 2 n=4 (2 · n)! · z 2·n−4
potenze positive | {z }
potenze negative

Resf (0) = 0 z0 è un punto di singolarità essenziale di f (ha infiniti termini con potenza negativa)

Esercizio 10.3 (27/01/2010) Determinare lo sviluppo di Laurent in z0 = 0, il residuo e le singolarità


in C\{0}, al variare di α ∈ R  
1 α
f (z) = (α − 3) · z · cosh −
z z
" +∞ # " +∞ #
  2·n
X 1 1 α X 1 1 α
f (z) = (α − 3) · z · · − = (α − 3) · · 2·n−1 − =
n=0
(2 · n)! z z n=0
(2 · n)! z z

  " +∞ #
α−3 1 X 1
= (α − 3) · z + − α · + (α − 3) ·
2 z n=0
(2 · n)! · z 2·n−1
α−3 3+α
Resf (0) = −α=−
2 2
se α 6= 3, z0 è un punto di singolatrità essenziale
se α = 3, z0 è un punto di singolatrità semplice
88 CAPITOLO 10. TEOREMA DI LAURENT E DEI RESIDUI

Esercizio 10.4 (12/02/2010) Determinare lo sviluppo di Laurent in z0 = 0 nella regione di spazio


{0 < |z| < 1} di
z3 − 4
f (z) = 3
z − z5
determinare inoltre il residuo e le singolarità
+∞ +∞
1 z3 − 4 1 z 3 − 4 X 2·n X
f (z) =(z 3 − 4) · = · = · z = (z 3
− 4) · z 2·n−3
z 3 · (1 − z 2 ) z3 1 − z2 z3 n=0 n=0

Lo sviluppo trovato è valido nella regione di spazio, poichè la serie geometrica ha raggio di convergenza
R = 1, pertanto si ha convergenza per |z| < 1.
+∞
X +∞
X +∞
X
f (z) = (z 3 −4)· z 2·n−3 = z 2·n −4· z 2·n−3 = 1 + z + z 2 + z 3 + . . . −4· z −3 + z −2 + z −1 + 1 + z + z 2 + . . .
 
n=0 n=0 n=0

Resf (0) = −4 z0 è un polo di ordine 3

Esercizio 10.5 (03/09/2009) Determinare lo sviluppo di Laurent in z0 = 0 di f in {|z| > 1}


1
f (z) =
i · z2 − z5
+∞  3 n 3
1 1 X z z
f (z) = 3 = · ⇔ < 1 ⇒ |z|z < 1
i · z 2 n=0 i
  i
2 z
i·z · 1−
i
poichè con il raccoglimento scelto si ottiene un risultato esterno all’intervallo desiderato allora si cambia
raccoglimento
+∞  n
1 1
1 X 1 1
f (z) =   =−   =− 5 · 3
⇔ 3 < 1 ⇒ |z| > 1
i 1 z n=0 z z
i · z5 · −1 z5 · 1 − 3
z3 z
+∞
X in
f (z) = −
n=0
z 3·n+5

Esercizio 10.6 Calcolare la singolarità e i residui di


cosh(z)
f (z) =
3+2·i·z
cosh(z) cosh(z)
f (z) = = 3

3+2·i·z 2 · i · 2·i +z
g(z)
3
z0 = − 2·i è un polo semplice di f poichè f è nella forma z−z 0
; poichè g(z0 ) 6= 0 e g 0 (z0 ) = 1
2·i ·
3

cosh − 2·i 6 0 allora si ha che
=
 
3
  cosh −
3 2·i
Resf − =
2·i 2·i
Esercizio 10.7 Calcolare la singolarità e i residui di
 2
z+1
f (z) =
z−1

(z + 1)2
f (z) =
(z − 1)2
z0 = 1 è un polo doppio poichè

g(z)|z0 =1 = (z + 1)2 z = 22 = 4 6= 0

0 =1

g 0 (1) 1 ∂(z + 1)2



Resf (1) = = · = 2 · (z + 1)|z=1 = 4
1! 1! ∂z
z=1
10.2. ESERCIZI 89

Esercizio 10.8 (28/01/2009) Calcolare l’integrale


Z
dz
I= 2 + 1) · (z − 1 − i)
C (z

con C = z ∈ C : z − i · 32 = 32


I poli della funzione integranda sono

z1 = 1 + i z2 = −i z3 = i

I poli z1 e z3 sono interni alla curva, mentre z2 è esterno alla curva; pertanto
" #
1 1
I = 2 · π · i · [Resf (i) + Resf (1 + i)] = 2 · π · i + 2 =
(z + i) · (z − 1 − i) z=i z + i z=1+i
   
1 1 1 1
=2·π·i· + =2·π·i − +
2 · i · (−1) 1 + 2 · i − 1 + 1 2·i 1+2·i

Esercizio 10.9 (09/09/2010) Calcolare l’integrale

z2
Z
I= 3 · dz

2
c (z + 1) · z − i · 2

con C = ∂ {z = x + i · y : |z| ≤ y ≤ 2} percorsa una sola volta in senso antiorario


I poli della funzione integranda sono
3
z1 = i z2 = −i z3 = 2 ·i

I poli z1 e z3 sono interni alla curva, mentre z2 è esterno alla curva; pertanto
" #
z2 z 2
  
3
I = 2 · π · i · Resf (i) + Resf ·i =2·π·i + 2 =

(z + i) · z − i · 23

2 z + 1 z= 3 ·i
z=i 2

" #
− 94
 
−1 9 4
=2·π·i + = 2 · π · i · −1 + =2·π·i·
2 · i · − 2i − 94 + 1

5 5
90 CAPITOLO 10. TEOREMA DI LAURENT E DEI RESIDUI
Capitolo 11

Distribuzioni

11.1 Introduzione (non formale)


In questa sezione si introdurra il concetto di distribuzione utilizzando un approccio eristico per nulla
rigoroso.
Si prende ad esempio una funzione 
0 x≤0
f (x) =
x x>0
derivandola puntualmente, cioè utilizzando la definizione “standard” di derivata, si ha

0 x<0
f 0 (x) = H(x) = , ∀x 6= 0
1 x>0

H(x) è detta Gradino di Heaviside

derivando ancora la funzione H(x) si ottiene a(x) = f 00 (x) = H 0 (x) = 0, ∀x 6= 0 ma è chiaro che tale
funzione non è soddisfacente dal punto di vista modellistico poichè in a(x) non vi sono informazioni
sull’impulso presente in x = 0.
L’idea di Schwarz1 è quella di abbandonare il punto di vista puntuale (cioè non si guarda più il valore delle
Z b
1
funzioni punto per punto) ma guardando le medie integrali delle funzioni, cioè si guarda · f (x)·dx
b−a a
al posto di g(x)
Esempio 11.1 Si ipotizza che f ∈ C 1 pertanto
b b
f (b) − f (a)
Z Z
1 0 1
v= = · f (x) · dx = · v(x) · dx
b−a b−a a b−a a

Definizione 11.1 [Funzione indicatrice] Si definisce una nuova funzione detta funzione indicatrice o
funzione caratteristica 
1 x ∈ [a, b]
χ[a,b] (x) = 11[a,b] (x) =
0 x∈/ [a, b]


Sfruttando la nuova definizione si ha che


Z b Z +∞
f (x) · dx = 11[a,b] (x) · f (x) · dx
a −∞

pertanto la media integrale


Z b Z +∞
1 1
· f (x) · dx = · 11[a,b] (x) · f (x) · dx
a b−a −∞ b−a

Attraverso il teorema della media integrale, se f (x) ∈ C 0 , tramite il teorema della media integrale è
possibile ricavare f (x) attraverso la sola conoscienza della media integrale di f (x), infatti, poichè
Z x+h
1
g(xc ) = · g(t) · dt, con xc ∈ [x − h, x + h]
2·h x−h
1 detentore della medaglia Fields per questo

91
92 CAPITOLO 11. DISTRIBUZIONI

facendo tendere h a 0 si ha !
Z x+h
1
g(x) = lim · g(t) · dt
h→0 2·h x−h

11[a,b]
É comunque possibile utilizzare (si può anche dimostrare) funzioni C ∞ “vicine” a b−a ; pertanto se si
conosce Z +∞
f (x) · ϕ(x) · dx, ∀ϕ ∈ C ∞ del tipo sopra
−∞

è possibile ricavare anche le medie integrali.


L’uso di questo tipo di funzioni, ϕ, rende operativamente può semplice i calcoli.
Se considerano, pertanto, corrispondenza del tipo
Z +∞
ϕ 7→ f (x) · ϕ(x) · dx al posto di f (x)
−∞

Se f (x) è derivabile allora come si interpreta la derivata?


Z +∞
A f 0 (x) si associa la corrispondenza ϕ 7→ f 0 (x) · ϕ(x) · dx ma attraverso l’integrazione per parti si
−∞
ottengono i seguenti risultati
Z +∞ Z +∞ Z +∞
+∞
f 0 (x) · ϕ(x) · dx = [f (x) · ϕ(x)]−∞ − f (x) · ϕ0 (x) · dx = − f (x) · ϕ0 (x) · dx
−∞ −∞ −∞

ϕ(±∞) = 0 in base alla definizione che è stata data.


Z +∞
pertanto si associa a f 0 (x) la corrispondenza ϕ →
7 f (x) · ϕ0 (x) · dx che sarà intesa come la nuova
−∞
nozione di derivata (per le distribuzioni).

Esempio 11.2 Tornando all’esempio precedente


 
0 x≤0 0 0 x≤0
f (x) = v(x) = f (x) = H(x) = a(x) = f 00 (x) = H 0 (x) = 0, ∀x 6= 0
x x>0 1 x>0

Come detto prima a(x) non va bene.


Z +∞
Consideriamo, allora, la corrispondenza ϕ 7→ − H(x) · ϕ0 (x) · dx al posto di H 0 (x) si ha
−∞

Z +∞ Z 0 Z +∞ Z +∞
− H(x)·ϕ0 (x)·dx = − H(x)·ϕ0 (x)·dx− H(x)·ϕ0 (x)·dx = − ϕ0 (x)·dx = −[ϕ(x)]+∞
0 = ϕ(0)
−∞ −∞ 0 0

cioè invece che la derivata classica (punto per punto), si considera la corrispondenza phi 7→ ϕ(0) che si
chiama delta di Dirac che non è una funzione a valori reali, ma è un nuovo oggetto che verrà denotato
con Distribuzione.

11.2 Distribuzione: definizioni rigorose


Definizione 11.2 [supporto di f ] Sia f : R → C si dice supporto di f la chiusura dell’insieme
{x ∈ R : f (x) 6= 0} cioè il più piccolo insieme chiuso che lo contiene.

Esempio 11.3 Determinare i supporti delle funzioni sotto elencate



0 |x| ≥ 1
• f (x) = .
1 |x| < 1
supp(f ) = [−1, 1]

• f (x) = x2 .
supp(f ) = R
poichè f (x) 6= 0, ∀x 6= 0 pertanto f (x) 6= 0 ∈ (−∞, 0) ∪ (0, +∞) ma chiudendo l’insieme si ha
(−∞, +∞) = R
11.2. DISTRIBUZIONE: DEFINIZIONI RIGOROSE 93

• f (x) = sin(x)
supp(f ) = R
poichè f (x) 6= 0, ∀x 6= k · π, k ∈ Z
+∞
[
f (x) 6= 0, ∀ (k · π, (k + 1) · π)
k=−∞

pertanto chiudendo l’insieme si ha che


+∞
[
(k · π, (k + 1) · π) = R = supp(f )
k=−∞

Definizione 11.3 [funzione test] Si dice funzione test una funzione ϕ : R → C che gode delle seguenti
proprietà:
• ϕ ∈ C∞
• supp(ϕ) è un insieme compatto2

Esempio 11.4 (funzione a supporto compatto) Un tipico esempio di funzione a supporto compatto
è 
 0 |x| ≥ 1
ϕ(x) = 1
 x2 + 1
e |x| < 1
supp(ϕ) = [−1, 1]
Non è facile, ma è possibile dimostrare per induzione che ϕ ∈ C ∞ (R), pertanto ϕ è una funzione test.

Definizione 11.4 [Notazione funzione test] L’insieme delle funzioni test è denotato con D(R) o più
semplicemente D.


Definizione 11.5 [Norme di funzioni] Data una funzione f : I ⊆ R → R è possibile definire le seguenti
norme
Z +∞
norma 1 ||f ||2 = |f (x)| · dx
−∞
Z +∞
2
norma 2 o norma quadratica ||f ||1 = |f (x)| · dx
−∞

norma infinito o norma uniforme ||f |∞ | = sup |f (x)|


x∈I

Richiamo di Analisi II
Sia fn , f : I → R si dice che fn converge uniformemente ad f se
lim sup |fn (x) − f (x)| = lim ||fn (x) − f (x)|∞ | = 0
n→+∞ x∈I n→+∞

Definizione 11.6 [convergenza funzione test] Siano ϕn , ϕ ∈ D; si dice che ϕn converge a ϕ,


ϕn → ϕ ∈ D, se
• ∃R > 0 : ϕn (x) = 0 ∀x ∈
/ [−R, R]
(p) unif
• ∀p ∈ N, ϕn → ϕ(p)



ϕ+ψ ∈D
D è uno spazio vettoriale, cioè se ϕ, ψ ∈ D ⇒
λ · ϕ ∈ D, ∀λ ∈ C
2 insiem compatto è equivalente a sistema chiuso e limitato, cioè ∃R > 0 : ϕ(x) = 0, ∀x ∈ [−R, R]
94 CAPITOLO 11. DISTRIBUZIONI

Definizione 11.7 [distribuzione] Si dice distribuzione un’applicazione (o funzionale), T

T : D(R) → C
ϕ 7→ T (ϕ) = hT, ϕi

tale che
• T è lineare, cioè

λ,µ ∈ C, ϕ,ψ ∈ D : hT, λ · ϕ + µ · ψi = λ · hT, ϕi + µ · hT, ψi

unif
• T è continua, cioè se ϕn → ϕ ∈ D allora hT, ϕn i → hT, ϕi (questione tecnica)

L’insieme delle distribuzioni si denota con D0 o D0 (R).




Osservazione 11.1 Sia T : D → C lineare, allora T è continua se e solo se

ϕn → 0 ∈ D e hT, ϕn i → 0, n → +∞

Dimostrazione 11.1 Supponendo che

ϕ → 0 ∈ D ⇒ hT, ϕn i → 0, n → +∞

sia vera si deve provare che


ψn → ψ ∈ D ⇒ hT, ψn i → hT, ψi
Se consideriamo ϕn := ψn − ψ si può verificare che ϕn → 0 ∈ D allora per l’ipotesi sopra si ha che

hT, ϕn i → 0, n → +∞

ma
hT, ϕn i = hT, ψn − ψi = hT, ψn i − hT, ψi
quindi
hT, ψn i − hT, ψi → 0 ⇒ hT, ψn i → hT, ψi

Definizione 11.8 [funzione localmente sommabile] Sia f : R → C, f si dice localmente sommabile se


Z b Z b
∀a,b ∈ R, f (x) · dx ∈ R e |f (x)| · dx ∈ R
a a

Notazionalmente si dice che f ∈ R1loc




Esempio 11.5 Verificare se le seguenti funzioni sono localmente sommabili:


• f (x) = x2
Z b Z b Z b
x2 · dx ∈ R
2
∀a,b ∈ R, x · dx = x2 · dx
a a a

x2 è localmente sommabile
1
• f (x) = p
|x|
Z b 1 Z b
1
∀a,b ∈ R, p · dx = p · dx ∈ R

a |x| a |x|
√1 è localmente sommabile
|x|

1
• f (x) =
x
Z 1
dx 1
Poichè non converge allora x non è localmente sommabile
0 x
11.3. OPERAZIONI 95

Definizione 11.9 [distribuzione regolare] Sia f ∈ R1loc ; si definisce la distribuzione Tf associata ad f


tramite la seguente associazione

Tf : D → C
Z +∞
hTf , ϕi := f (x) · ϕ(x) · dx, ϕ ∈ D
−∞

Dimostrazione 11.2 Verificare che Tf è lineare


Z +∞ Z +∞ Z +∞
hTf , λ · ϕ + µ · ψi = f · (λ · ϕ + µ · ψ) · dx = λ · ϕ · dx + µ · ψ · dx = λ · hTf , ϕi + µ · hTf , ψi
−∞ −∞ −∞

Dimostrazione 11.3 Verificare che Tf è continua, cioè che hTf , ϕn i → 0.


Si prende ϕn → 0 ∈ D Z +∞
hTf , ϕn i = f (x) · ϕn (x) · dx → 0, n → +∞
−∞

Lo si dimostra utilizzando la stima degli integrali definiti, cioè


Z +∞ Z +∞ Z R


f (x) · ϕn (x) · dx
≤ |f (x)| · |ϕn (x)| · dx = |f (x)| · |ϕn (x)| · dx ≤
−∞ −∞ −R !
Z R Z R
≤ |f (x)| · sup |ϕn (x)| · dx = |f (x)| · dx · ||ϕn |∞ | → 0, n → +∞
−R x∈R −R

Definizione 11.10 [distribuzione regolare] Una distribuzione, T , del tipo Tf , con f ∈ R1loc si dice
regolare.


Definizione 11.11 [delta di Dirac] Sia x0 ∈ R si dice delta di Dirac centrata il x0 la distribuzione

δx0 : D → C
hδx0 , ϕi := ϕ(x0 )

Si può verificare che δx0 ∈ D0 .

Nel caso in cui sia indicata la distribuzione δ si intende


la distribuzione delta di Dirac centrata in 0, cioè δ := δ0 .

11.3 Operazioni
Definizione 11.12 [Traslazione della distribuzione] Sia T ∈ D0 e sia x0 ∈ R si dice traslazione della
distribuzione (di x0 ) la distribuzione T(x−x0 ) definita da


T(x−x0 ) , ϕ := hT, ϕ(x + x0 )i , ∀ϕ ∈ D

Definizione 11.13 [Riscalamento della distribuzione] Sia T ∈ D0 ,b ∈ R\{0} si dice riscalamento della
distribuzione o modulazione della distribuzione la distribuzione T(b·x) definita da
  x 

1
T(b·x) , ϕ := T, ·ϕ· , ∀ϕ ∈ D
|b| b



un caso particolare è quando si ha b = −1, infatti T(−x) , ϕ = hT, ϕ(−x)i è detta inversione temporale,
nome significativo quando la variabile x indica un tempo.
96 CAPITOLO 11. DISTRIBUZIONI

Definizione 11.14 [Prodotto di distribuzione per funzione] Sia g ∈ C∞ (R) e sia T ∈ D0 (R) allora si
definisce g · T ∈ D0
hg · T, ϕi := hT, g · ϕi , ∀ϕ ∈ D

Definizione 11.15 [Derivata di distribuzione] Se T ∈ D0 (R), si dice derivata (distribuzionale) di T la


distribuzione T 0 ∈ D(R) definita da
hT 0 , ϕi := hT, ϕ0 i

Osservazione 11.2 Se f e g differiscono solo in un numero finito di punti oppure in un’infinità di punti
numerabile allora Tf = Tg .

Proprietà 11.1 Per la derivata distribuzionale valgono le solite proprietà delle derivate di funzioni reali.

Teorema 11.1 Sia f ∈ R1loc (R), si suppone che

• f sia continua tranne in un numero finito di punti, cioè f ∈ C 0 (R\{x1 , x2 , . . . , xm })

• i punti di discontinuità, {x1 , x2 , . . . , xm }, siano punti di discontinuità di salto, cioè

∃f (x− +
k ) = lim− f (x) ∈ R, ∃f (xk ) = lim+ f (x) ∈ R, ∀k ∈ [1, m] ∩ N
x→xk x→xk

• esiste la derivata in tutti i punti in cui f è continua, cioè ∃f 0 (x), ∀x ∈


/ {x1 , x2 , . . . , xm }

• la derivata sia localmente sommabile, cioè f 0 ∈ R1loc

allora
m
X
Tf0 = Tf + [f (x+ k
 
k ) − f (x −)] · δxk
k=1

Definizione 11.16 [Funzione segno] Si definisce la funzione segno, sng, la funzione che vale −1 se x < 0
e 1 se x > 0 
 −1 x < 0
sng(x) = 0 x=0
1 x>0

sng(0) = 0 per convenzione, dato che nell’ambito delle distribuzioni Tf = Tg se f (x) 6= g(x) solo in un
numero finito di punti.



0 x 6= 0
Osservazione 11.3 Sia f : R → R con f (x) =
+∞ x=0
Z +∞
f (x) · dx = 0 l’integrale è indipendente dal valore della funzione in un punto
−∞

Tuttavia esiste una teoria (teoria della misura) per la quale


Z +∞
δ0 (dx) = 1
−∞

N.B.: l’integrale sopra non è l’integrale di una funzione.

Osservazione 11.4 (Analisi I) Siano f, ϕ : [a, b] → R tali che

• ϕ ∈ C 1 ([a, b])

• f ∈ C 1 (]a, b[) con f 0 integrabile su (a, b) con f (a+ ),f (b− ) ∈ R (esistono finiti i limiti)
Z b Z b Z b
0 p.p. b− 0 −
f (x) · ϕ (x) · dx = [f (x) · ϕ(x)]a+ − +
f (x) · ϕ(x) · dx = f (b ) · ϕ(b) − f (a ) · ϕ(a) − f 0 (x) · ϕ(x) · x
a a a
11.4. CONVERGENZA DI DISTRIBUZIONI 97

Dimostrazione 11.4 Dimostrazione del teorema 11.1 nel caso di un solo punto di discontinuità di salto,
x1 .
Sia ϕ ∈ D
D E Z +∞ Z x1 Z +∞
0 0 0 p.p.
Tf0 , ϕ = − hTf , ϕ i = − f (x) · ϕ (x) · dx = − f (x) · ϕ (x) · dx − f (x) · ϕ0 (x) · dx =
−∞ Z x1 −∞ x 1 Z +∞
p.p.
= −[f (x− 1 ) · ϕ(x 1 ) − 0] + f 0
(x) · ϕ(x) · dx − [0 − f (x +
1 ) · ϕ(x 1 )] + f 0 (x) · ϕ(x) · dx =
−∞
Z +∞ x 1

− 0 −
[f (x+ +
+ Tf0 , ϕ


1 ) − f (x 1 )] · ϕ(x 1 ) + f (x) · ϕ(x) · dx = [f (x 1 ) − f (x 1 )] hδ x1 , ϕi
−∞

Definizione 11.17 [funzione porta] Si definisce funzione porta di ampiezza a ∈ R+ la funzione pa : R →


R
1 |x| < a2

pa (x) =
0 |x| > a2


Definizione 11.18 [Valore principale di 1


x] Si definisce valore principale di 1
x ∈ D0 ponendo
  Z −ε Z +∞ 
1 ϕ(x) ϕ(x)
v.p. , ϕ := lim+ · dx + −ε · dx
x ε→o −∞ x x


Definizione 11.19 [Formula di Leibniz, per le distribuzioni] Sia g ∈ C ∞ (R) e T ∈ D0

(g · T )0 = g 0 · T + g · T 0

Dimostrazione 11.5 Sia ϕ ∈ D

h(g · T )0 , ϕi = − hg · T, ϕ0 i = − hT, g · ϕ0 i = − hT, (g · ϕ)0 − g 0 · ϕi = − hT, (g · T )0 i + hT, g 0 · ϕi =


= hT 0 , g · ϕi + hT · g 0 , ϕi = hg · T 0 , ϕi + hg 0 · T, ϕi

(g · T )0 = g · T 0 + g 0 · T

Osservazione 11.5 Una distribuzione ha infinite derivate, poichè la derivata di una distribuzione è a
sua volta una distribuzione. D E D E
∀p ∈ N, T (p) , ϕ = (−1)p · T, ϕ(p)

Dimostrazione 11.6 Sia ϕ ∈ D


hT 0 , ϕi = − hT, ϕi
Si consideri G = T 0
hG0 , ϕi = − hG, ϕi ⇒ hT 00 , ϕi = − hT 0 , ϕ0 i = hT, ϕ00 i
procedendo per induzione si ha quindi
D E D E
∀p ∈ N, T (p) , ϕ = (−1)p · T, ϕ(p)

11.4 Convergenza di distribuzioni


Definizione 11.20 Sia Tn ∈ D0 , ∀n ∈ N e T ∈ D0 si dice che Tn → T ∈ D0 (Tn converge a T nel senso
delle sistribuzioni), se
n→+∞
∀ϕ ∈ D, hTn , ϕi → hT, ϕi


98 CAPITOLO 11. DISTRIBUZIONI

Proprietà 11.2 Se Tn → T e Sn → S in D0 e λ,µ ∈ C allora

λ · Tn + µ · Sn → λ · T + µ · S

Proprietà 11.3 Si definisce supporto di supp(f ) := {x : f (x) 6= 0}. Si può dimostrare che

Nf := unione di tutti gli intervalli aperti in cui f è nulla = ∪{(a, b) : f ((a, b)) = {0}}

supp(f ) = R\Nf

Definizione 11.21 [Supporto di una distribuzione] Si dice che una distribuzione T ∈ D0 è nulla su (a, b)
se
hT, ϕi = 0, ∀ϕ ∈ D con supp(ϕ) ⊆ (a, b)
e si pone

supp(T ) := R\{(a, b) : T è nulla su (a, b)} = R\ ∪ {(a, b) : hT, ϕi = 0, ∀ϕ ∈ D : supp(ϕ) ⊆ (a, b)}

Si dice che T è a supporto compatto se supp(T ) è compatto in R (cioè ha supporto chiuso e limitato).

Proprietà 11.4 Sia T ∈ D0 allora


supp(T 0 ) ⊆ supp(T )

11.4.1 Estensione a C ∞ (R) delle distribuzioni a supporto compatto


Sia T : D(R) → C distribuzione con supporto compatto.
Sia or ψ ∈ C ∞ (R) e prendiamo ϕ0 ∈ D tale che ϕ0 (x) = 1, ∀x ∈ (a, b); allora ϕ0 · ψ ∈ D.
Si pone quindi
hT, ψi := hT, ϕ0 · ψi , ∀ψ ∈ C ∞ (R)
Il fatto che supp(T ) è compatto consente di dimostrare che la definizione precedente non dipende dalla
scelta di ϕ0 .
Si è quindi estesa la distribuzione a supporto compatto da D a C ∞ , cioè si ha dato senso a hT, ψi con
ψ ∈ C ∞.

11.5 Esercizi
Z +∞
Esercizio 11.1 Sia T : D → C definita da hT, ϕi = ex · ϕ(x) · dx dire se T ∈ D0 .
−∞
É una distribuzione poichè ex ∈ R1loc quindi

T = Tf = Tex ∈ D0
Z 1
Esercizio 11.2 Dire se T : D → C definita da hT, ϕi = arctan(x) · ϕ(x) · dx è una distribuzione.
0
T è una distribuzione poichè
Z 1 Z +∞ Z +∞
hT, ϕi = arctan(x) · ϕ(x) · dx = 11[0,1] (x) · arctan(x) · ϕ(x) · dx = f (x) · ϕ(x) · dx
0 −∞ −∞

f (x) = 11[0,1] (x) · arctan(x) ∈ R1loc


Z 1 Z −1
2
Esercizio 11.3 Dire se T : D → C definita da hT, ϕi = x · ϕ(x) · dx + ex · ϕ(x) · dx è una
−1 −2
distribuzione.
Z +∞ Z +∞
hT, ϕi = 11[−1,1] (x) · x2 · ϕ(x) · dx + 11[−2,−1] (x) · ex · ϕ(x) · dx =
−∞
Z +∞ Z +∞ −∞ Z +∞
= f (x) · ϕ(x) · dx + g(x) · ϕ(x) · dx = (f (x) + g(x)) · ϕ(x) · dx = Tf +g
−∞ −∞ −∞

pertanto T è una distribuzione.


11.5. ESERCIZI 99

Z 1
Esercizio 11.4 Dire se T : D → C definita da hT, ϕi = x · ϕ0 (x) · dx è una distribuzione.
0
Z 1 Z 1 Z 1
p.p. 1
hT, ϕi = x · ϕ0 (x) · dt = [x · ϕ(x)]0 − ϕ(x) · dx = ϕ(1) − ϕ(x) · dx =
0 Z +∞ 0 0



= ϕ(1) − 11[0,1] (x) · ϕ(x) · dx = hδ1 , ϕi − T11[0,1] , ϕ = δ1 − T11[0,1] , ϕ
−∞

Poichè T = δ1 − 11[0,1] allora T è una distribuzione ma non è regolare.


Z 1
Esercizio 11.5 Dire se T : D → R definita da hT, ϕi = ϕ0 (x) · dex è una distribuzione.
0
Z 1
hT, ϕi = ϕ0 (x) · dx = ϕ(1) − ϕ(0) = hδ1 − δ0 , ϕi
0
0
T = δ1 − δ0 ∈ D , è una distribuzione

Esercizio 11.6 Verificare che δx0 è una distribuzione.


Occorre verificare che:

• δx0 sia lineare

λ,µ ∈ C, ϕ,ψ ∈ D hδx0 , λ · ϕ + µ · ψi = λ · ϕ(x0 ) + µ · ψ(x0 ) = λ · hδx0 , ϕi + µ · hδx0 , ψi

unif unif
• δx0 sia continua, cioè se ϕn → ϕ ∈ D allora hδx0 , ϕn i → v hδx0 , ϕi
unif
hδx0 , ϕn i = ϕn (x0 ) → ϕ(x0 ) = hδx0 , ϕi

unif
pertanto poichè hδx0 , ϕn i → hδx0 , ϕi allora δx0 ∈ D0

Esercizio 11.7 Dire se T : D → C definita da hT, ϕi = 1, ∀ϕ ∈ D è una distribuzione.


T ∈/ D0 poichè T non è lineare, infatti se ψ ∈ D allora anche −ψ ∈ D e in base alla definizione della
distribuzione si ha che
hT, −ψi = 1 = hT, ψi
ma per avere linearità è necessario che hT, −ψi = − hT, ψi ma

1 = hT, −ψi = − hT, ψi = −1

Esercizio 11.8 Sia T : D → R definito da hT, ϕi = ||ϕ||1 . Dire se T ∈ D0 .

hT, ψi = ||ψ||1 ≤ 0

hT, −ψi = ||−ψ||1 = ||ψ||1 ≤ 0


0
Poichè affinche T ∈ D è necessario che T sia lineare e che hT, ψi = hT, −ψi, non è lineare, allora
/ D0 .
T ∈

/ D0 .
Esercizio 11.9 Sia T : D → R definita da hT, ϕi = ||ϕ||2 , verificare che T ∈

hT, ψi = ||ψ||2 ≤ 0

hT, −ψi = ||−ψ||2 = ||ψ||2 ≤ 0


0
Poichè affinche T ∈ D è necessario che T sia lineare e che hT, ψi = hT, −ψi, non è lineare, pertanto
/ D0 .
T ∈

Esercizio 11.10 Sia f : R → C con f ∈ R1loc , sia x0 ∈ R e g(x) = f (x − x0 ), verificare che hTg , ϕi =
hTf , ϕ(x + x0 )i.
Se ϕ ∈ D si ha che
Z +∞ Z +∞ Z +∞
y=x−x0 x=y
hTg , ϕi = f (x−x0 )·ϕ(x)·dx = f (y)·ϕ(y+x0 )·dy = f (x)·ϕ(x+x0 )·dx = hTf , ϕ(x + x0 )i
−∞ −∞ −∞
100 CAPITOLO 11. DISTRIBUZIONI

Esercizio 11.11 Sia T = δ0 e sia x0 ∈ R, determinare T(x−x0 ) = δ0(x−x0 ) .


Sia ϕ ∈ D D E
δ0(x−x0 ) , ϕ = hδ0 , ϕ(x + x0 )i = ϕ(x0 ) = hδx0 , ϕi
T(x−x0 ) = δ0(x−x0 ) = δx0

Esercizio 11.12 Sia T = δa e sia a,x0 ∈ R, determinare T(x−x0 ) = δa(x−x0 ) .


Sia ϕ ∈ D D E
δa(x−x0 ) , ϕ = hδa , ϕ(x + x0 )i = ϕ(a + x0 ) = hδa+x0 , ϕi
T(x−x0 ) = δa(x−x0 ) = δa+x0
  x 
1
Esercizio 11.13 Sia f ∈ R1loc (R),b ∈ R\{0} e sia g(x) = f (b·x), verificare che hTg , ϕi = Tf , ·ϕ .
|b| b
Sia ϕ ∈ D
 Z +∞
1 y
f (y) · · ϕ · dy b>0

Z +∞ 
b b

y=b·x
hTg , ϕi = f (b · x) · ϕ(x) · dx = Z−∞
+∞ =
−∞ 1 y
f (y) · ·ϕ · dy b < 0



Z +∞ −∞
Z +∞ −b b 
1 y x=y 1 x 1  x 
= f (y) · ·ϕ · dy = f (x) · ·ϕ · dx = Tf , ·ϕ·
−∞ |b| b −∞ |b| b |b| b
  x 
1
hTg , ϕi = Tf , ·ϕ
|b| b
Esercizio 11.14 Sia δa ,a ∈ R, calcolare δa(b·x) con b ∈ R\{0}.
Sia ϕ ∈ D 

1  x  1 a  1 
δa(b·x) , ϕ = δa , ·ϕ = ·ϕ = · δ ab , ϕ
|b| b |b| b |b|
 

1
δa(b·x) , ϕ = · δa , ϕ
|b| b
Esercizio 11.15 Sia g ∈ C ∞ (R),a ∈ R calcolare g · δa .
Sia ϕ ∈ D
hg · δa , ϕi = hδa , g · ϕi = g(a) · ϕ(a) = g(a) · hδa , ϕi
pertanto g · δa = g(a) · δa

Esercizio 11.16 Sia f ∈ R1loc (R) : ∃f 0 ∈ R1loc (R) of ∈ C 1 (R), verificare che hTf 0 , ϕi = − hTf , ϕ0 i
Z +∞ Z R
p.p.
hTf 0 , ϕi = f 0 (x) · ϕ(x) · dx = f 0 (x) · ϕ(x) · dx =
−∞ Z R −R Z +∞
p.p. 0
R
= [f (x) · ϕ(x)]−R − f (x) · ϕ (x) · dx = − f (x) · ϕ0 (x) · dx = − hTf , ϕ0 i
−R −∞

hTf 0 , ϕi = − hTf , ϕ0 i , ∀ϕ ∈ D, ∀f ∈ R1loc : f 0 ∈ R1loc of ∈ C 1

Esercizio 11.17 Sia f : R → R la funzione rampa, si chiede di ricavare Tf0 e Tf00 .



0 x≤0
f (x) =
x x>0
Effettuando il calcolo diretto, prendendo ϕ ∈ D si ha che
D E Z +∞ Z 0 Z +∞
Tf0 , ϕ = − hTf , ϕ0 i = − f (x) · ϕ0 (x) · dx = − f (x) · ϕ0 (x) · dx − f (x) · ϕ0 (x) · dx =
Z 0 −∞ Z +∞ −∞Z 0
+∞
0 0 0 p.p.
=− 0 · ϕ (x) · dx − x · ϕ (x) · dx = − x · ϕ (x) · dx =
−∞ Z +∞ 0 Z +∞ 0 Z +∞
p.p.
= [x · ϕ0 (x)]+∞
0 + ϕ(x) · dx = ϕ(x) · dx = H(x) · ϕ(x) · dx = hTH , ϕi
0 0 −∞

lim ϕ0 (x) = 0 poichè ϕ(x) = 0, ∀x ∈


/ [−R, R] pertanto essendo costante ha derivata nulla.
x→+∞ 
0 x≤0
H(x) =
1 x>0
11.5. ESERCIZI 101

Tf0 = TH
D E Z +∞ Z +∞
0 0 0
Tf00 , ϕ = hTH , ϕi = − hTH , ϕ i = − H(x) · ϕ (x) · dx = − ϕ0 (x) · dx =
Z R −∞ 0

=− ϕ0 (x) · dx = −ϕ(R) + ϕ(0) = ϕ(0) = hδ0 , ϕi


0
Tf00 = TH
0
= δ0
Esercizio 11.18 Sia f (x) = |x| si chiede di ricavare Tf0 .
Sia ϕ ∈ D
D E Z +∞ Z 0 Z +∞
Tf0 , ϕ = − hTf , ϕ0 i = − |x| · ϕ0 (x) · dx = − −x · ϕ0 (x) · dx − x · ϕ0 (x) · dx =
−∞
Z 0 −∞ Z +∞ 0
p.p. 0 0 +∞
= [x · ϕ (x)]−∞ − ϕ(x) · dx − [x · ϕ(x)]0 + ϕ(x) · dx =
Z 0 −∞
Z +∞ Z +∞ 0


=− ϕ(x) · dx + ϕ(x) · dx = sng(x) · ϕ(x) · dx = Tsng(x) , ϕ
−∞ 0 −∞
0
T|x| = Tsng(x)
Esercizio 11.19 Determinare la distribuzione δx0 0 .
Sia ϕ ∈ D
0
δx0 , ϕ = − hδx0 , ϕ0 i = −ϕ0 (0)


0 x∈/ (0, 1)
Esercizio 11.20 Sia f (x) = , determinare Tf0 .
e2·x x ∈ (0, 1)
Poichè f ∈ R1loc e 
0 0 x∈/ (0, 1)
∀x 6= {0, 1}, ∃f (x) = ∈ R1loc
2 · e2·x x ∈ (0, 1)
poichè nei punti di discontinuità si hanno discontinuità di salto allora valgono le ipotesi del teorema
pertanto
Tf0 = Tf 0 + [f (0+ ) − f (0− )] · δ0 + [f (1+ ) − f (1− )] · δ1 = T[11[0,1] ·2·e2·x ] + δ0 − e2 · δ1
2
Esercizio 11.21 Calcolare la derivata distribuzionale di T = ex · δ−1 + T[3·sng(−x)] .
Poichè si può facilmente osservare che le ipotesi del teorema sono rispettate allora dato che
0
T[3·sng(x)] = T0 + [3 · sng(0+ ) − 3 · sng(0− )] · δ0 = −6 · δ0
2 2
ex · δ−1 = e(−1) · δ−1 = e · δ−1
0
T 0 = [e · δ−1 − 6 · δ0 ] = e · δ−1
0
− 6 · δ00 = e · δ−1
0

T 0 = e · δ−1
0

Esercizio 11.22 (12/02/2008) Sia



sin(π · x) x ∈ (0, 9)
f (x) = x
3 x∈/ (0, 9)
calcolare Tf0 .

π · cos(π · x) x ∈ (0, 9)
∀x ∈ R\{0, 9}, ∃f 0 (x) = 1
3 x∈/ [0, 9]
poichè f 0 ∈ R1loc allora
Tf0 = Tf 0 + [f (0+ ) − f (0− )] · δ0 + [f (9+ ) − f (9− )] · δ9 = Tf 0 + 3 · δ9
Esercizio 11.23 (11/11/2006) Sia

[1 − p2 (x)] · [1 + log |x|] x 6= 0
f (x) =
0 x=0
calcolare Tf0 .

0 0 |x| < 1
∀x ∈ R\{±1}, ∃f (x) = 1
x |x| > 1
pertanto poichè f 0 ∈ R1loc si ha che Tf0 = Tf 0 + δ−1 + δ1
102 CAPITOLO 11. DISTRIBUZIONI

Esercizio 11.24 (11/02/2009) Sia

f (x) = |3 · x| · H(x + 1) + sng(2 · x)

calcolare Tf0 .

 0 x < −1
∀x ∈ R\−1, 0, ∃f 0 (x) = −3 x ∈ (−1, 0)
3 x>0

pertanto Tf0 = Tf 0 + 3 · δ−1 + 2 · δ0 .

Esercizio 11.25 Sia


f (x) = ex · H(−x) + (ex + 1) · p2 (x − 1)
calcolare Tf0 .
ex

x<2
∀x ∈ R\0, ∃f 0 (x) =
0 x>2
pertanto Tf0 = Tf 0 + δ0 − (e2 + 1) · δ2 .

Esercizio 11.26 (20/02/2012) Sia

f (x) = [sng(x − 1) + sng(x)] · x2

calcolare Tf0 .

 −4 · x x<0
∀x ∈ R\{1}, ∃f 0 (x) = 0 0≤0<1
4·x x>1

pertanto Tf0 = Tf 0 + 2 · δ1 .

Esercizio 11.27 Sia ϕ ∈ D tale che ϕ0 (0) = −2, calcolare h[sin(x)] · δ000 , ϕi.

h[sin(x)] · δ000 , ϕi = hδ000 , sin(x) · ϕ(x)i = − hδ00 , cos(x) · ϕ(x) + sin(x) · ϕ0 (x)i =
= hδ0 , − sin(x) · ϕ(x) + cos(x) · ϕ0 (x) + cos(x) · ϕ0 (x) + sin(x) · ϕ00 (x)i =
hδ0 , sin(x) · [ϕ00 (x) − ϕ(x)] + 2 · cos(x) · ϕ0 (x)i = 2 · cos(0) · ϕ0 (0) = −4
(
0 |x − 7| ≥ 1
Esercizio 11.28 Sia T = (x3 −12·cos(x))·δ3 (x−4) calcolare hT, ϕi dove ϕ(x) = 1 .
e (x−7)2 −1 |x − 7| < 1

3
3
hT, ϕi = [x − 12 · cos(x)] · δ3 (x − 4), ϕ = [x − 12 · cos(x)] · δ7 , ϕ = [73 − 12 · cos(7)] · ϕ(7) =
= [73 − 12 · cos(7)] · e−1

Esercizio 11.29 Calcolare la derivata distribuzionale di T = TH(2·x) + 5 · δ3 (2 · x).


0 0
H(2 · x) = H(x) ⇒ TH(2·x) = TH(2·x) = δ0
1 5
δx0 (a · x) = · δ xa0 ⇒ (5 · δ3 (2 · x))0 = · δ 03
|a| 2 2
pertanto T 0 = δ0 + 5
2 · δ 03 .
2

Esercizio 11.30 Sia f : R\{0} → R definita da f (x) = log |x|, calcolare Tf0 .
f ∈ R1loc , infatti
1 1 1
lim |x| 2 · log |x| = 0 ⇒ |x| 2 · log |x| ≤ 1 ≡ log |x| ≤ 1
x→0
|x| 2
Sia ϕ ∈ D
D E Z +∞ Z −ε Z +∞ 
Tf0 , ϕ = − hTf , ϕ0 i = − log |x| · ϕ0 (x) · dx = − lim+ log |x| · ϕ0 (x) · dx + log |x| · ϕ0 (x) · dx =
−∞ ε→0 −∞ ε
 Z −ε Z +∞ 
ϕ(x) ϕ(x)
= − lim+ log |ε| · ϕ(−ε) − 0 − · dx + 0 − log |ε| · ϕ(ε) − · dx =
ε→0
 −∞ Z −εx Z +∞ ε x
ϕ(x) ϕ(x)
= lim+ log |ε| · (ϕ(ε) − ϕ(−ε)) + · dx + · dx =
ε→0 −∞Z x ε Z x
 −ε +∞ 
ϕ(ε) − ϕ(−ε) ϕ(x) ϕ(x)
= lim+ 2 · ε · log |ε| · + · dx + · dx =
ε→0
Z −ε Z2 ·+∞
ε −∞ x ε x
ϕ(x) ϕ(x)
= lim+ · dx + · dx
ε→0 −∞ x ε x
11.5. ESERCIZI 103

Si pone   Z −ε Z +∞ 
1 ϕ(x) ϕ(x)
v.f. , ϕ := lim+ · dx + · dx
x ε→0 −∞ x ε x
0 1
pertanto Tlog |x| = v.p ∈ D0
x
Esercizio 11.31 Sia T = x2 · T11[−1,1] , calcolare se esiste T 0 .

T = Tf = x2 · T11[−1,1] = Tx2 ·11[−1,1]

T 0 = T2·x·11[−1,1] + δ−1 + δ1
Ricorrendo alla formula di Leibniz si ha che
0
T 0 = x2 · T11[−1,1] = 2 · T11[−1,1] + x2 · T110 [−1,1] = 2 · x · T11[−1,1] + x2 · (δ−1 + δ1 ) =
= 2 · x · T11[−1,1] + x2 · δ−1 + x2 · δ1 = 2 · x · T11[−1,1] + δ−1 + δ1

Esercizio 11.32 Calcolare, se esiste, T 0 con T = (5 · x + 3) · TH .


Per la formula di Leibniz si ha

T 0 = 5 · TH + (5 · x + 3) · δ0 = 5 · TH + 3 · δ0

Esercizio 11.33 Sia p ∈ N e T = δx0


D E D E
δx(p)
0
, ϕ = (−1)p · δx0 , ϕ(p) = (−1)p · ϕ(p) (x0 )

Esercizio 11.34 Calcolare, se esiste, lim δn .


n→+∞
Sia ϕ ∈ D
n→+∞
hδn , ϕi = ϕ(n) → 0
poichè ∀x ∈ R, ϕ(R\(−R, R)) = {0}
n→+∞
δn → 0

Esercizio 11.35 (21/09/2011) Sia Tn = n · δ−n , calcolare se esiste lim Tn .


n→+∞
Sia ϕ ∈ D
hTn , ϕi = hn · δ−n , ϕi = n · ϕ(−n) = 0
n→+∞
n · δ−n → 0

Esercizio 11.36 Sia Tn = δ3·n − δ n1 , calcolare se esiste lim Tn .


n→+∞
Sia ϕ ∈ D  
D E 1 n→+∞
hTn , ϕi = δ3·n − δ n1 , ϕ = ϕ(3 · n) − ϕ → −ϕ(0)
n
n→+∞
δ3·n − δ n1 → −δ0

Esercizio 11.37 Sia Tn = δ(−2)3·n ·ln(n) , calcolare se esiste lim Tn .


n→+∞
Sia ϕ ∈ D
hTn , ϕi = δ(−2)3·n ·ln(n) , ϕ = ϕ (−2)3·n · ln(n)

 

poichè (−2)3·n · ln(n) non ha limite si verifica che


(−2)3·n · ln(n) = 23·n · ln(n) → +∞

allora
n→+∞
ϕ((−2)3·n · ln(n)) → 0
n→+∞
δ(−2)3·n ·ln(n) → 0

Esercizio 11.38 Sia Tn = δ(−1)n , calcolare se esiste lim Tn .


n→+∞
Sia ϕ ∈ D
δ(−1)n , ϕ = ϕ((−1)n )

In generale la successione non converge pertanto 6 ∃ lim Tn (si ha convergenza solo per alcune ϕ come
n→+∞
ad esempio ϕ(x) = x2 · 11[−R,R] )
104 CAPITOLO 11. DISTRIBUZIONI

n→+∞
Esercizio 11.39 Sia fn (x) = n · p n1 (x), calcolare se esiste T tale che Tfn → T.
Sia ϕ ∈ D
1 1 1
Z +∞ Z Z Z
2·n 2·n 1 2·n
hTfn , ϕi = fn (x) · ϕ(x) · dx = n · ϕ(x) · dx = n · ϕ(x) · dx = 1 · ϕ(x) · dx = ϕ(xn )
1 1 1
−∞ − 2·n − 2·n n − 2·n

 
1 1
xn ∈ − ,
2·n 2·n
ma per n → +∞, xn → 0
n→+∞
fn → ϕ(0)
n→+∞
Tfn = Tn·p 1 → δ0 = T
n

n→+∞
Esercizio 11.40 Sia fn (x) = n2 · p n1 (x), calcolare se esiste T tale che Tfn → T.
Sia ϕ ∈ D
1 1 1
Z +∞ Z Z Z
2·n 2·n n 2·n
hTfn , ϕi = fn (x)·ϕ(x)·dx = n2 ·ϕ(x)·dx = n2 · ϕ(x)·dx = 1 · ϕ(x)·dx = n·ϕ(xn )
1 1 1
−∞ − 2·n − 2·n n − 2·n

per n → +∞ (xn → 0)

• n · ϕ(xn ) → 0 se ϕ(xn ) = 0

• n · ϕ(xn ) → +∞ se ϕ(xn ) ∈ R\{0}

pertanto Tfn non converge in D0 .

n→+∞
Esercizio 11.41 Sia fn (x) = sin(n · x), calcolare se esiste T tale che Tfn → T.
Dal grafico in Figura (11.1f) è chiaro che fn non converge a nessuna funzione.
Sia ϕ ∈ D
R  R Z R
cos(n · x) cos(n · x) 0
Z
p.p.
hTfn , ϕi = sin(n · x) · ϕ(x) · dx = − · ϕ(x) + · ϕ (x) · dx =
−R n −R −R n
Z R
1
= · cos(n · x) · ϕ0 (x) · dx
n −R

1 Z R 1
Z R
1
Z R
0 0 n→+∞
· cos(n · x) · ϕ (x) · dx ≤ · |cos(n · x)| · |ϕ (x)| · dx ≤ · |ϕ0 (x)| · dx → 0

n −R n −R n −R
Z R
|ϕ0 (x)| · dx ∈ R poichè ϕ ∈ D e quindi a supporto compatto
−R

n→+∞
Tfn → 0
n
X
Esercizio 11.42 (Treno di impulsi) Sia ∀n ∈ N, Tn = δk , calcolare se esiste il lim Tn .
n→+∞
k=−n
Sia ϕ ∈ D * +
n
X n
X n
X
hTn , ϕi = δk , ϕ = hδk , ϕi = ϕ(k)
k=−n k=−n k=−n

Non è restrittivo porre R ∈ N (al limite si prende l’intero superiore di R)


n
X +∞
X
Tn = δk → δk
k=−n k=−∞

+∞
X R
X
δk = δk
k=−∞ k=−R

poichè ha infiniti termini nulli


11.5. ESERCIZI 105

Esercizio 11.43 Sia Tn = n · δ0 x − n1 − δ0 x + n2 , calcolare se esiste il


  
lim Tn .
n→+∞
Sia ϕ ∈ D
           
1 2 1 2
hTn , ϕi = n · δ0 x − − δ0 x + ,ϕ = n · ϕ −ϕ − =
n n n n
1
− ϕ(0) + ϕ(0) − ϕ − n2 1
ϕ − n2 − ϕ(0)
   
ϕ n ϕ n − ϕ(0
= 1 = 1 − 1 =
n n n

1
ϕ − n2 − ϕ(0)
 
− ϕ(0
   
ϕ 0 1 0 2 n→+∞ 0
= n
1 +2· = ϕ + 2 · ϕ − → ϕ (0) + 2 · ϕ0 (0) = 3 · ϕ0 (0)
n − n2 n n
0
−3 · hδ0 , ϕi
    
1 2 n→+∞
n · δ0 x − − δ0 x + → −3 · δ00
n n
106 CAPITOLO 11. DISTRIBUZIONI

3.5
1.6
3
1.4
2.5

1.2
2

1 1.5

0.8 1

0.6 0.5

0
0.4
−0.5
0.2
−1
0
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2 −1.5 −1 −0.5 0 0.5 1
(a) Grafico di f (x) dell’esercizio 11.23 (b) Grafico di f (x) dell’esercizio 11.24

8
8
7
7
6

6 5

5 4

4 3

2
3
1
2
0
1
−1
0
−2
−0.5 0 0.5 1 1.5 2 2.5 3 −1 −0.5 0 0.5 1 1.5 2
(c) Grafico di f (x) dell’esercizio 11.25 (d) Grafico di f (x) dell’esercizio 11.26

1 1
sin(x)
0.9 0.8 sin(2 ⋅x)
0.8 sin(5 ⋅x)
0.6

0.7 0.4

0.6 0.2

0.5 0

0.4 −0.2

0.3 −0.4

0.2 −0.6

0.1 −0.8

0 −1
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2 −10 −5 0 5 10
(e) Grafico di f (x) dell’esercizio 11.31 (f) Grafico di f (x) dell’esercizio 11.41

Figura 11.1: Grafici di f (x) degli esercizi 11.23, 11.24, 11.25, 11.26, 11.31, 11.41
107
108 CAPITOLO 12. APPENDICE

Capitolo 12

Appendice

0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.0 0.50000 0.50399 0.50798 0.51197 0.51595 0.51994 0.52392 0.52790 0.53188 0.53586
0.1 0.53983 0.54380 0.54776 0.55172 0.55567 0.55962 0.56356 0.56749 0.57142 0.57535
0.2 0.57926 0.58317 0.58706 0.59095 0.59483 0.59871 0.60257 0.60642 0.61026 0.61409
0.3 0.61791 0.62172 0.62552 0.62930 0.63307 0.63683 0.64058 0.64431 0.64803 0.65173
0.4 0.65542 0.65910 0.66276 0.66640 0.67003 0.67364 0.67724 0.68082 0.68439 0.68793
0.5 0.69146 0.69497 0.69847 0.70194 0.70540 0.70884 0.71226 0.71566 0.71904 0.72240
0.6 0.72575 0.72907 0.73237 0.73565 0.73891 0.74215 0.74537 0.74857 0.75175 0.75490
0.7 0.75804 0.76115 0.76424 0.76730 0.77035 0.77337 0.77637 0.77935 0.78230 0.78524
0.8 0.78814 0.79103 0.79389 0.79673 0.79955 0.80234 0.80511 0.80785 0.81057 0.81327
0.9 0.81594 0.81859 0.82121 0.82381 0.82639 0.82894 0.83147 0.83398 0.83646 0.83891
1.0 0.84134 0.84375 0.84614 0.84850 0.85083 0.85314 0.85543 0.85769 0.85993 0.86214
1.1 0.86433 0.86650 0.86864 0.87076 0.87286 0.87493 0.87698 0.87900 0.88100 0.88298
1.2 0.88493 0.88686 0.88877 0.89065 0.89251 0.89435 0.89617 0.89796 0.89973 0.90147
1.3 0.90320 0.90490 0.90658 0.90824 0.90988 0.91149 0.91309 0.91466 0.91621 0.91774
1.4 0.91924 0.92073 0.92220 0.92364 0.92507 0.92647 0.92785 0.92922 0.93056 0.93189
1.5 0.93319 0.93448 0.93574 0.93699 0.93822 0.93943 0.94062 0.94179 0.94295 0.94408
1.6 0.94520 0.94630 0.94738 0.94845 0.94950 0.95053 0.95154 0.95254 0.95352 0.95449
1.7 0.95543 0.95637 0.95728 0.95818 0.95907 0.95994 0.96080 0.96164 0.96246 0.96327
1.8 0.96407 0.96485 0.96562 0.96638 0.96712 0.96784 0.96856 0.96926 0.96995 0.97062
1.9 0.97128 0.97193 0.97257 0.97320 0.97381 0.97441 0.97500 0.97558 0.97615 0.97670
2.0 0.97725 0.97778 0.97831 0.97882 0.97932 0.97982 0.98030 0.98077 0.98124 0.98169
2.1 0.98214 0.98257 0.98300 0.98341 0.98382 0.98422 0.98461 0.98500 0.98537 0.98574
2.2 0.98610 0.98645 0.98679 0.98713 0.98745 0.98778 0.98809 0.98840 0.98870 0.98899
2.3 0.98928 0.98956 0.98983 0.99010 0.99036 0.99061 0.99086 0.99111 0.99134 0.99158
2.4 0.99180 0.99202 0.99224 0.99245 0.99266 0.99286 0.99305 0.99324 0.99343 0.99361
2.5 0.99379 0.99396 0.99413 0.99430 0.99446 0.99461 0.99477 0.99492 0.99506 0.99520
2.6 0.99534 0.99547 0.99560 0.99573 0.99585 0.99597 0.99609 0.99621 0.99632 0.99643
2.7 0.99653 0.99664 0.99674 0.99683 0.99693 0.99702 0.99711 0.99720 0.99728 0.99736
2.8 0.99744 0.99752 0.99760 0.99767 0.99774 0.99781 0.99788 0.99795 0.99801 0.99807
2.9 0.99813 0.99819 0.99825 0.99831 0.99836 0.99841 0.99846 0.99851 0.99856 0.99861
3.0 0.99865 0.99869 0.99874 0.99878 0.99882 0.99886 0.99889 0.99893 0.99897 0.99900
3.1 0.99903 0.99906 0.99910 0.99913 0.99916 0.99918 0.99921 0.99924 0.99926 0.99929
3.2 0.99931 0.99934 0.99936 0.99938 0.99940 0.99942 0.99944 0.99946 0.99948 0.99950
3.3 0.99952 0.99953 0.99955 0.99957 0.99958 0.99960 0.99961 0.99962 0.99964 0.99965
3.4 0.99966 0.99968 0.99969 0.99970 0.99971 0.99972 0.99973 0.99974 0.99975 0.99976
3.5 0.99977 0.99978 0.99978 0.99979 0.99980 0.99981 0.99981 0.99982 0.99983 0.99983
3.6 0.99984 0.99985 0.99985 0.99986 0.99986 0.99987 0.99987 0.99988 0.99988 0.99989
3.7 0.99989 0.99990 0.99990 0.99990 0.99991 0.99991 0.99992 0.99992 0.99992 0.99992
3.8 0.99993 0.99993 0.99993 0.99994 0.99994 0.99994 0.99994 0.99995 0.99995 0.99995
3.9 0.99995 0.99995 0.99996 0.99996 0.99996 0.99996 0.99996 0.99996 0.99997 0.99997
4.0 0.99997 0.99997 0.99997 0.99997 0.99997 0.99997 0.99998 0.99998 0.99998 0.99998
4.1 0.99998 0.99998 0.99998 0.99998 0.99998 0.99998 0.99998 0.99998 0.99999 0.99999
4.2 0.99999 0.99999 0.99999 0.99999 0.99999 0.99999 0.99999 0.99999 0.99999 0.99999
4.3 0.99999 0.99999 0.99999 0.99999 0.99999 0.99999 0.99999 0.99999 0.99999 0.99999
4.4 0.99999 0.99999 1.00000 1.00000 1.00000 1.00000 1.00000 1.00000 1.00000 1.00000

Tabella 12.1: Funzione di distribuzione Φ di X ∼ N (0, 1) con precisione 10−5 e passo di 0.01
109


clc
2 clear all
file = fopen ( ’ distNormale . tex ’ , ’w ’) ;
4 file = 1;
min = 0;
6 max = 4.4;
step_c = 0.1;
8 c if r e _s ignificative =5;
fx = inline ( ’ 1/ sqrt (2* pi ) .* exp ( - x .^2/2) ’) ;
10 c = min : step_c : max ;
r = 0: step_c /10: step_c - step_c /10;
12 fprintf ( file , ’ \\ begin { tabular }{ r ’) ;
for indice = 1: length ( r )
14 fprintf ( file , ’| r ’) ;
end
16 fprintf ( file , ’} ’) ;
for indice = 1: length ( r )
18 fprintf ( file , ’ & %.* f ’ , - log10 ( step_c /10) , r ( indice ) ) ;
end
20 fprintf ( file , ’ \\\\\ n \\ hline \\\\\ n ’) ;
for indice = 1: length ( c )
22 fprintf ( file , ’ %.* f ’ , - log10 ( step_c ) , c ( indice ) ) ;
for indice1 = 1: length ( r )
24 fprintf ( file , ’ & %.* f ’ , cifre_significative , quadl ( fx , -10 , c ( indice ) + r
( indice1 ) , 10^( - cifre_significative ) ) ) ;
end
26 fprintf ( file , ’ \\\\\ n ’) ;
end
28 fprintf ( file , ’ \\ end { tabular }\ n ’) ;
fclose ( file ) ;
 

Tabulazione della funzione di distribuzione di una normale standardizzata

Potrebbero piacerti anche