Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
l’ingegneria
16 maggio 2012
c
c Il testo è stato redatto in LATEX attraverso l’applicativo TEXnicCenter; i grafici sono realizzati at-
traverso il software di calcolo numerico Matlab, mentre le immagini attraverso un programma di grafica
vettoriale (nel caso specifico Inkscape).
Sono stati sfruttati pacchetti per LATEX come caption, changepage, eso-pic, fancyhdr, geometry,
listings, subfig, . . . .
N.B. Il seguente documento è un quaderno di appunti ; il nome del corso (Appunti di 05BQXNZ - Metodi
matematici per l’ingegneria) è fornito solo per avere un’indicazione riguardo agli argomenti/metodo-
logie affrontate nel corso; questo non implica una diretta verifica/approvazione da parte del/dei docenti
indicati (che sono forniti sempre in via indicativa).
Si vuol ricordare che tali appunti possono essere affetti da errori e per questo motivo si richiede di comu-
nicare il sottoscritto, alla mail macisamuele@gmail.com, con eventuali correzioni e/o suggerimenti nella
stesura, indicando chiaramente il documento a cui ci si riferisce.
Indice
I Probabilità 1
1 Calcolo Combinatorio 3
1.1 Permutazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Combinazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
3 Probabilità condizionata 17
3.1 Dipendenza condizionata . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4 Variabili Aleatorie 25
4.1 Variabili Aleatorie Discrete . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.1.1 Trasformazione di una variabile aleatoria discreta . . . . . . . . . . . . . . . . . . . 27
4.1.2 Varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.1.3 Variabili aleatorie discrete notevoli . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.2 Variabili aleatorie continue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.2.1 Valore atteso di una variabile aleatoria continua . . . . . . . . . . . . . . . . . . . 35
4.2.2 Variabili aleatorie continue notevoli . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.3 Leggi congiunte di variabili aleatorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.3.1 Funzioni di densità congiunte di variabili aleatorie discrete . . . . . . . . . . . . . . 45
4.3.2 Funzioni di densità congiunte di variabili aleatorie continue . . . . . . . . . . . . . 45
4.4 Variabili aleatorie indipendenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.4.1 Somma di variabili aleatorie indipendenti . . . . . . . . . . . . . . . . . . . . . . . 49
II Analisi Matematica 51
6 Funzioni complesse 59
6.1 Esponenziale complesso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
6.2 Funzioni trigonometriche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
6.2.1 Proprietà . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
6.3 Funzioni iperboliche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
6.3.1 Proprietà . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
6.4 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
I
8 Integrali 69
8.1 Definizioni: Curve in C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
8.2 Integrali curvilinei . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
8.2.1 Richiamo di Analisi Matematica II . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
8.3 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
9 Successioni e Serie 79
9.1 Serie in C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
9.2 Serie di potenze in C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
9.3 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
11 Distribuzioni 91
11.1 Introduzione (non formale) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
11.2 Distribuzione: definizioni rigorose . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
11.3 Operazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
11.4 Convergenza di distribuzioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
11.4.1 Estensione a C ∞ (R) delle distribuzioni a supporto compatto . . . . . . . . . . . . 98
11.5 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
12 Appendice 107
II
Elenco delle figure
2.1 Griglia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2 Rappresentazione insiemistica degli studenti . . . . . . . . . . . . . . . . . . . . . . . . . . 15
5.1 Sintesi grafica della rappresentazione di numeri complessi sul piano di Gauss (piano complesso) 54
6.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
6.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
11.1 Grafici di f (x) degli esercizi 11.23, 11.24, 11.25, 11.26, 11.31, 11.41 . . . . . . . . . . . . . 106
III
IV
Parte I
Probabilità
1
Capitolo 1
Calcolo Combinatorio
Il calcolo combinatorio ci aiuta a numerare gli elementi di un insieme che gode di determinate caratteri-
stiche.
Un banale esempio applicativo è contare il numero di targhe italiane11 che possono essere realizzata (in
particolare si ha che la cardinalità dell’insieme delle targhe è #(targhe) = 212 · 103 · 212 ).
1.1 Permutazioni
Sia N = {x1 , x2 , . . . , xn } un insieme di elementi distinti, dove n = #(N ) è la cardinalità dell’insieme.
Definizione 1.1 L’insieme delle permutazioni di N , P(N ), è l’insieme di tutti i possibili ordinamenti
dell’insieme N .
Il numero delle permutazioni, indicato come, #(P(N )) = n!.
Sorge ora il problema di calcolare il numero di permutazioni di un insieme N 0 nel quale sono presenti n
elementi non tutti distinti. In questo caso si considerano tutte le permutazioni degli elementi (n!) e si
divide il risultato per la permutazione dei singoli elementi ripetuti.
Esempio 1.1 Quanti sono gli anagrammi della parola PEPPER?
N = {P, E, P, P, E, R}
con n1P = 3, n2E = 2, n3R = 1; pertanto
n! 6!
#(P(N )) = =
n1 ! · n2 ! · n3 ! 3! · 2!
In generale quindi
n!
#(P(N )) = k
Y
nk
i=1
dove n = #(N ), k è il numero di elementi distinti e nk è il numero di elementi indistinguibili.
1.2 Combinazioni
Sia N = {x1 , x2 , . . . , xn } un insieme di elementi distinti, dove n = #(N ) è la cardinalità dell’insieme.
Definizione 1.2 L’insieme delle combinazioni di N di classe k, con k ≤ n, Cn,k (N ) è l’insieme dei
sottoinsiemi di N con cardinalità k.
Due combinazioni sono distinte se varia almeno un elemento, non è quindi importante l’ordine.
Per il conteggio
delle combinazioni si prendono tutte le permutazioni di k elementi realizzabili con elementi
n!
di N (n−k)! e si divide per il numero di permutazioni dei k elementi presi, pertanto
n! n
#(Cn,k (N )) = =
(n − k)! · k! k
1 targhe composte da due lettere, tre cifre, due lettere
3
4 CAPITOLO 1. CALCOLO COMBINATORIO
• nk = n−k n
n n−1 n−1
• k = k + k−1
n n
• 0 = n =1
n
n
X n
• (x + y) = · xi · y n−1
i=1
i
n n
X n X n
– = · 1i · 1n−1 = 2n
i=1
i i=1
i
" Yr
#
X n X n ki
– = · 1 = rn
n1 , n2 , . . . , nr n1 , n2 , . . . , nr i=1
k1 +...+kr =n k1 +...+kr =n
Esercizio 1.1 Quante sono le possibili squadre distinte se ogni squadra contiene 3 giocatori e occorre
realizzare 3 squadre partendo da 9 ragazzi?
9 9! 9! 7!
= = 3 3 = = 1680
3, 3, 3 3! · 3! · 3! 3 ·2 3
E se le squadre giocassero nello stesso campionato? (cioè non è più importante conoscere l’ordinamento
delle squadre)
9
3,3,3 9! 9! 7!
= = 4 4 = 2 = 560
3! 3! · 3! · 3! · 3! 3 ·2 3 ·2
N = {1, 1, . . . , 1, 0, 0, . . . , 0}
| {z } | {z }
n−m m
Esercizio 1.3 (Paradosso del compleanno) Abbiamo n studenti tutti nati in anni non bisestili (anni
tutti da 365 giorni).
E = {nessuno f esteggi il compleanno nello stesso giorno}
365!
#(casi f avorevoli a E) (365−n)!
P(E) = =
#(casi possibili) 365n
Se n = 23 si ha la probabilità di circa il 51% di probabilità che almeno due ragazzi compiano il compleanno
nello stesso giorno.
Esercizio 1.4 Ho 7 caramelle da dare a 3 bambini, supponendo che ad ogni bambino vengadata almeno
una caramella; in quanti modi distinti si possono distribuire le caramelle?
Occorre quindi risolvere il seguente sistema
x1 + x2 + x3 = 7
∀i ∈ [1, 3], xi ∈ N+
Dal punto di vista logico, la separazione delle caramelle si può vedere come un separatore interposto tra
le caramelle (facendo cura a non porre due serapatori tra due caramelle, in tal modo ci si garantisce che
ogni bambino riceve almeno una caramella); poichè si hanno 7 caramelle allora si hanno 6 spazi dove
porre i separatori (che nel nostro caso saranno 2), pertanto il problema si riduce a calcolare il numero di
modi distinti di porre 2 separatori in 6 spazi.
6!
#(C6,2 ) = = 15
4! · 2!
Generalizzando il problema a c caramelle e b bambini il numero di distinti di modi è
(c − 1)! c−1
#(Cc−1,b−1 ) = =
(b − 1)! · (c − 1 − b + 1)! b−1
Modificando il problema supponendo che i bambini possano anche restare senza caramelle il problema si
riformalizza nel seguente modo
x1 + x2 + x3 = 7
∀i ∈ [1, 3], xi ∈ N
Con questa nuova riformulazione si hanno b − 1 separatori e le c caramelle; pertanto il calcolo dei modi
distinti per la distribuzione è semplicemente la permutazione di tutti gli elementi dell’insieme
9! 9
#(P(N )) = =
7! · 2! 2
Il problema poteva anche essere risolto utilizzando i calcoli precedenti nel seguente modo
b
X c−1
#(distribuzione caramelle) =
i=1
i−1
b
X
Un metodo alternativo alla risoluzione del problema xi = c, xi > 0 è quello di distribuire ad ogni
i=1
b
X
bambino una caramella e quindi ci si conduce a risolvere xi = c − b, xi ≥ 0 pertanto si pongono b − 1
i=1
separatori tra c − b caramelle, pertanto tutte le possibili permutazioni sono
(c − b + b − 1)! (c − 1)! c−1
#(S) = = =
(b − 1)! · (c − b)! (b − 1)! · (c − b)! b−1
b
X
Nel caso in cui si vuol risolvere il problema xi = c, xi ≥ 0 si può anche pensare a sommare tutte
i=1
le possibili soluzioni considerando che nessun bambino resti senza caramelle, un bambino resti senza
caramelle, . . . , b − 1 bambini restano senza caramelle; ci si riconduce a trattare il seguente problema
( b )! b−1 b−i
X X X
# xi = c, xi ≥ 0 = # xj = c, xj 6= 0
i=1 i=0 j=1
6 CAPITOLO 1. CALCOLO COMBINATORIO
Ci si interessa di eventi/fenomeni il cui risultato non può essere previsto con certezza.
Definizione 2.1 [Spazio campionario] Lo spazio campionario, S, è l’insieme di tutti i possibili esiti
dell’esperimento preso in esame.
Definizione 2.2 [Evento] Un evento, E, è un sottoinsieme di S.
Si richiede che la famiglia degli eventi deve essere chiusa rispetto all’unione e al complementare.
Definizione 2.3 [Tipi di eventi] Un evento
∅ si dice impossibile
S si dice certo
Dati due eventi E e F si definiscono:
• l’evento unione, E ∪ F , l’evento che contiene tutti i risultati di E e di F (si verifica almeno uno
dei due eventi)
• l’evento intersezione, E ∩ F , l’evento che contiene tutti i risultati comui di E e di F (si verificano
entrambi gli eventi)
• l’evento complementare,
E C , l’evento che contiene tutti i risultati di S che non sono contenuti in
C
E E = S\E
• l’evento differenza, E − F = E ∩ F C , contiene tutti i risultati di E che non sono risultati di F
Inoltre data una successione di eventi di S {En , n ≥ 1} si definisce
+∞
[
• En , l’evento unione degli eventi che si verifica quando almeno uno degli eventi si verifica
n=1
+∞
\
• En , l’evento intersezione degli eventi che si verifica quando tutti gli eventi si verificano
n=1
7
8 CAPITOLO 2. ASSIOMI DELLA PROBABILITÀ
P3 P(E C ) = 1 − P(E)
1E ∩ Em = ∅, n 6= m
n
2.1. DEFINIZIONE ASSIOMATICA DI PROBABILITÀ 9
Esercizio 2.1 (Problema delle corrispondenze) N coppie (uomo/donna) vanno ad una lezione di
tango argentino. Supponendo che le coppie di ballo si formino casualmente, si calcoli la probabilità che:
1. nessun uomo stia ballando con la propria partner
2. esattamente k uomuni stiano ballando con la propria partner
Supponendo che gli uomini restino fermi il numero di possibili accoppiamenti è dato dal numero di
permutazioni distinte delle donne, il numero di possibili accoppiamenti è quindi
#({1, 2, . . . , N }) = N !
Svolgimento
1. Definendo l’evento Ei = {l’uomo i balla con la propria moglie}
N
!
[
P(nessun uomo balla con la moglie) = 1 − P(almeno uno balla con la moglie) = 1 − P Ei
i=1
N
! N N
!
[ X X X \
P Ei = P(Ei ) − P(Ei ∩ Ej ) + P(Ei ∩ Ej ∩ Ek ) + . . . + (−1)N −1 · P Ei
i=1 i=1 i<j i<j<k i=1
Nel caso in cui solo una coppia sia sistemata occorre ancora disporre N − 1 donne, pertanto si ha
(N − 1)!
P(Ei ) =
N!
Nel caso in cui solo due coppie siano sistemate occorre ancora disporre N − 2 donne, pertanto si ha
(N − 2)!
P(Ei ∩ Ej ) =
N!
Come è chiaro nel caso di c coppie (con c ≤ N ) sistemate occorre disporre N − c donne, pertanto
si ha
−c
N\
!
(N − c)!
P Ei =
i=1
N!
pertanto
N
! N
[ X (N − 1)! X (N − 2)! X (N − 3)! 1
P Ei = − + + . . . + (−1)N −1 · =
i=1 i=1
N ! i<j
N ! N ! N !
i<j<k
N (N − 2)! N (N − 3)! 1
=1− · + · + . . . + (−1)N −1 · =
2 N! 3 N! N!
N
1 1 1 X 1
=1− + + . . . + (−1)N −1 · = (−1)i+1 ·
2! 3! N! i=1
i!
N N
i+1 1 1
X X
P(nessun uomo balla con la moglie) = 1 − (−1) · = (−1)i ·
i=1
i! i=2
i!
Se il numero di coppie tende ad infinito si ha che la probabilità che nessun unomo balla con la
propria moglie si ha una probabilità di 1e .
k
! N
!!
\ \
C
2. P(k uomini ballano con la propria moglie) = P Ei ∩ Ei
i=1 i=k+1
N −k
X 1
P(nessuno degli N-k uomini stia ballano con la propria moglie) = (−1)i ·
i=2
i!
10 CAPITOLO 2. ASSIOMI DELLA PROBABILITÀ
#(A)
poichè P(A) = ⇒ #(A) = #(possibili) · #(A)
#(possibili)
N −k
X 1
k
! N
!! (N − k)! · (−1)i ·
\ \ i=2
i! N
P Ei ∩ EiC = · =
i=1
N! k
i=k+1
N −k N −k
(N − k)! X 1 N! 1 X 1
= · (−1)i · · = · (−1)i ·
N! i=2
i! (N − k)! · k! k! i=2
i!
Definizione 2.5 [Probabilità uniforme] Si ha probabilità uniforme se tutti i possibili eventi, Si , di uno
spazio campionario, S = {s1 , s2 , . . . , sn }, sono eventi incompatibili ed equamente probabili.
n
! n n
[ X X 1
P(si ) = c ⇒ 1 = P(S) = P si = P(si ) = c=n·c⇒c=
i=1 i=1 i=1
n
Esercizio 2.2 Un’urna contiene 6 palline bianche e 5 nere. Se ne estraggono 3 a caso, calcolare la
probabilità che ne vengano estrette 1 bianca e 2 nere.
6 5
·
1 2 4
P(E) = = = 0.36
11 11
3
Esercizio 2.3 Calcolare la probabilita di ottenere i punteggi del poker (coppia, doppia coppia, tris, full,
poker, colore, scala semplice, scala reale) con le 5 carte servite dal mazzo.
10 · 4
P(scala reale) = 52
5
10 · (45 − 4)
P(scala semplice) = 52
5
13
4· 5 − 10
P(colore) = 52
5
4
13 · 4 · 48
P(poker) = 52
5
4 4
13 · 3 · 12 · 2
P(f ull) = P(tris + coppia) = 52
5
13 4 4
2 · 2 · 2 · 48 · 4
P(doppia coppia) = 52
5
4 12
13 · 3 · 2 · 42
P(tris) = 52
5
4 12
13 · 2 · 3 · 43
P(coppia) = 52
5
m m
!
X additività finita [
= lim P(Fn ) = lim P Fn =
m→+∞ m→+∞
n=1 n=1
= lim P(Em )
m→+∞
Utilazzando la successione {EnC , n ≥ 1} si osserva che tale successione è crescente, pertanto poichè
+∞
!C +∞
[ \
EnC = En (legge di De Morgan)
n=1 n=1
m
! m
!
[ \
P lim En =1−P lim EnC = 1 − lim P Fn = 1 − lim P EnC =
n→+∞ n→+∞ m→+∞ m→+∞
n=1 n=1
m
!
\
= lim P En = lim P(En )
n→+∞ m→+∞
n=1
pertanto si ha
55 − 30 25
P(E2 ) = P(i + j + k = 12) = =
216 216
12 CAPITOLO 2. ASSIOMI DELLA PROBABILITÀ
Esercizio 2.5 Un’urna contiene una pallina rossa e tutte le altre bianche (in totale le palline sono n).
rossa bianche
U = { 1 , 2, 3, 4, . . . , n}
1. Il numero di file indiane distinte è dato dal numero di permutazioni degli elementi, pertanto sono
P(X) = 6! = 720
2. due ordinamento attorno al tavolo rotondo sono diversi se ad almeno una persona ha i due vicini
diversi; pertanto
indicano lo stesso ordinamento attorno al tavolo. In definitiva quindi ad ogni ordinamento attorno
al tavolo corrispondono 12 file indiane distinte e quindi
6! 5!
#(ordinamenti attorno al tavolo) = = = 60
12 2
3. affinchè C e F siano vicini si può considerare la coppia (C, F ) come un unico blocco e poi permutare
gli elementi del blocco
2 · 5! 1
P(E1 ) = =
6! 3
4. considerando le osservazioni fatte nel punto 2 si ha che
0
#({(x1 , x2 , x3 , x4 ), xi ∈ {1, 2, 3, 4, 5, 6, 7}, ∀i}) = D7,4 = 74 = 2401
Se ad ogni bambino si può dare al massimo un libro si ha
7!
#({(x1 , x2 , x3 , x4 ), ∀i, xi ∈ {1, 2, 3, 4, 5, 6, 7}, i 6= j, xi 6= xj }) = D7,4 = = 7 · 6 · 5 = 210
3!
2.1. DEFINIZIONE ASSIOMATICA DI PROBABILITÀ 13
Esercizio 2.8 Due dadi equi vengono lanciati ripetutamente. Quale è la probabilità che
Poichè si lanciano due dadi in contemporanea, una per la somma 5 e una per la somma 7, si ha al
denominatore 36n ; inoltre poichè fino all’(n − 1)-esimo lancio non si ha somma 5 o 7 si hanno 26 casi
in cui non si ha tale somma, inoltre il 4 è il numero di coppie che formano la somma 5.
Esercizio 2.9 Una persona parte da A per arrivare in B (i passi possibili sono solo verso destra e verso
l’alto).
Se tutti i percorsi sono equiprobabili quale è la probabilità di passare per P ?
B
P
Per giungere da A a B è necessario effettuare 3 passi in alto e 4 passi verso destra; perstanto il
numero di percorsi distinti sono
7! 7 7
#(P({D, D, D, D, A, A, A})) = = =
3! · 4! 3 4
7
3 può essere inteso come il numero di scelte dei passi in cui andare in alto.
7
4 può essere inteso come il numero di scelte dei passi in cui andare verso destra.
4
3
2 · 1 4! · 3 3! · 4! 18
P(passo per P ) = 7
= · =
3
2! · 2! 7! 35
Esercizio 2.10 Una persona ha 8 amici (N = {1, 2, 3, 4, 5, 6, 7, 8}), decide di invitare alla sua festa solo
5 amici.
1. in quanti modi li può invitare se 2 amici non possono essere invitati insieme
2. in quanti modi li può invitare se 2 amici sono una coppia (o li si invitano entrambi o non li si
invita)
coppia non
invitata coppia
invitata
6 6
2. + = 6 + 20 = 26
5 3
14 CAPITOLO 2. ASSIOMI DELLA PROBABILITÀ
Esercizio 2.11 Un esame è composto da 5 quesiti scelti a caso tra 10 disponibili. Uno studente sa
risolvere esattamente 7 di 10 problemi.
Calcolare la probabilità che si verifiche E1 = {risponde esattemente a 5 quesiti},
E2 = {risponde ad almeno 4 quesiti}
7 7!
5 1
P(E1 ) = = 5! · 2! =
10 10! 12
5 5! · 5!
7 7 7! 7!
·3+ ·3+
P(E2 ) =
4
5
= 3! · 4! 2! · 5! = 1
10 10! 2
5 5! · 5!
Esercizio 2.12 Un armadio contiene 10 paia di scarpe. Scegliendo 8 scarpe a caso calcolare la probabilità
che si verifichi
10
· 28
8 384
1. P(E1 ) = = , 28 indica la possibilità di scelta tra scarpa destra o sinistra delle 8
20 4119
8
scarpe prese, 108 indica il numero di possibili scarpe prese
9
10 · · 26
6 1792
2. P(E2 ) = =
20 4199
8
• 28 studiano spagnolo
• 26 studiano francese
• 16 studiano tedesco
di questi
1
2. P(E2 ) = 1 − P(E1 ) = 2
50
2 149
4. P(E4 ) = 1 − P(nessuno studi alcuna lingua) = 1 − 100
=
2
198
16 CAPITOLO 2. ASSIOMI DELLA PROBABILITÀ
Capitolo 3
Probabilità condizionata
Questo approccio operativo consente il calcolo della probabilità di eventi di cui si hanno informazioni
parziali; può anche essere adottato nella risoluzione di calcolo di probabilità di eventi complessi (realiz-
zando appositamente eventi che ne semplificano il lavoro).
Esempio 3.1 Si lanciano due dadi. Calcolare la probabilità che si verifichi E = {la somma dei due dadi è 8}.
5
P(E) =
36
Supponiamo ora che il primo dado ha valore 6 calcolare nuovamente P(E).
Si pone F = {primo dado vale 6}
#(E ∩ F ) 1
P(E|F ) = =
#(F ) 6
Prosizione 3.1 (Probabilità condizionata) Sia F un evento non trascurabile1 e sia E un evento
allora la probabilità dell’evento E condizionato da F (cioè ponendo che si sia già verificato F ) è
P(E ∩ F )
P(E|F ) =
P(F )
Esempio 3.2 Una moneta equa viene lanciata due volte. Si calcoli la probabilità che E = {si ottengono due teste}
condizionatamente a
Prosizione 3.2 (Formula del prodotto, 2 eventi) Si osserva che dalla formulazione della probabilità
condizionata si ha che
P(E ∩ F ) = P(F ) · P(E|F )
T
n−1
Definizione 3.1 [Formula del prodotto, n eventi] Sia {En , n ≥ 1} e sia P i=1 E i > 0 allora
n
! n−1
!
\ \
P Ei = P(E1 ) · P(E2 |E1 ) · P(E3 |E1 ∩ E2 ) . . . P En | Ei
i=1 i=1
Si può dimostrare
T talerelazione applicando la probabilità condizionata, inoltre si può osservare che la
n−1
condizione P i=1 Ei > 0 è sufficiente per poter definizre tutte le probabilità condizionate coinvolte
nella formula.
17
18 CAPITOLO 3. PROBABILITÀ CONDIZIONATA
In questo modo
P(E) = P(B1 ∩ R2 ∩ R3 ) ∪ P(R1 ∩ B2 ∩ R3 ) ∪ P(R1 ∩ R2 ∩ B3 )
poichè gli eventi sono incompatibili si sostituisce l’unione con la somma (additività finita)
P(E) = P(E4 ) = P(E1 ∩ E2 ∩ E3 ∩ E4 ) = P(E1 ) · P(E2 |E1 ) · P(E3 |E1 ∩ E2 ) · P(E4 |E1 ∩ E2 ∩ E3 )
P(E1 ) = 1
39
P(E2 |E1 ) =
51
26
P(E3 |E1 ∩ E2 ) =
50
13
P(E4 |E1 ∩ E2 ∩ E3 ) =
49
39 · 26 · 13 3! · 48! 13
P(E) = = 13 · = 51
51 · 50 · 49 51! 3
Prosizione 3.3 Dato uno spazio campionario S, una famiglia di eventi, una probabilità e un evento non
trascurabile, F allora P(· · · |F ) è una misura di probabilita sullo spazio campionario S.
Dimostrazione 3.1 Per verificare se P(· · · |F ) è una misura di probabilità occorre verificare la validità
degli assiomi
P(E∩F )
A1 ∀E ∈ S, 0 ≤ P(E|F ) = P(F ) ≤1
P(E∩F )
P(F ) ≤ 1 poichè (E ∩ F ) ⊂ F pertanto P(E ∩ F ) ≤ P(F )
P(S∩F )
A2 P(S|F ) = P(F ) = PP(F )P(F ) = 1
Prosizione 3.4 (Formula delle probabilità totali) Sia 0 < P(F ) < 1 allora per ogni evento E vale
Dimostrazione 3.2 É possibile scrivere l’evento E come l’unione di due eventi incompatibili
E = E ∩ (F ∪ F c ) = (E ∩ F ) ∪ (E ∩ F c )
Definizione 3.2 [Generalizzazione della formula delle probabilità totali] Si può generalizzare la formula
delle probabilità totali prendendo una partizione di S
n
[
S= Fi Fi ∩ Fj = ∅, ∀i 6= j
i=1
n
X
P(E) = P(Fi ) · P(E|Fi )
i=1
P(Fj ) · P(E|Fj )
∀Fj , P(Fj |E) = n
X
P(Fi ) · P(E|Fi )
i=1
Dove
• Fi rappresenta le ipotesi alternative
• P(Fj ) è la probabilità iniziale (probabilità a priori)
• P(Fj |E) è la probabilità a posteriori
F = {vinco la macchina}
Si può osservare che cambiare la scelta nel gioco raddoppia la probabilità di vincere la macchina.
Esempio 3.5 Una compagnia assicurativa divide gli assicurati in due gruppi
P(I) = P(A) · P(I|A) + P(Ac ) · P(I|Ac ) = 0.3 · 0.4 + 0.7 · 0.2 = 0.26
P(E|F ) = P(E)
P(E ∩ F )
P(E|F ) = = P(E) ⇒ P(E ∩ F ) = P(E) · P(F )
P(F )
Dimostrazione 3.3
eventi
indipendenti
P(E c ∩ F c ) = P ((E ∪ F )c ) = 1 − P(E ∪ F ) = 1 − P(E) − P(F ) + P(E ∩ F ) =
= 1 − P(E) − P(F ) + P(E) · P(F ) =
= 1 − P(E) − P(F ) · [1 − P(E)] = [1 − P(F )] · [1 − P(E)] = P(E c ) · P(F c )
Dimostrazione 3.4
P(E) = 0
P(E) = P(E ∩ F ) = P(E) · P(F ) ⇒ P(E) · [1 − P(E)] = 0 ⇔
P(F ) = 1
Esercizio 3.2 Ogni prova ha probabilità di successo p = P(E), le prove sono indipendenti Calcolare
1. ! !
n
[ n
\ n
Y
P Ei =1−P Eic =1− P(Eic ) = 1 − (1 − p)n
i=1 i=1 i=1
2.
k n
\ \ n
P Ei ∩ EjC = · pk · (1 − p)n−k
i=1
k
j=k+1
21
3.
+∞
! n
! n
! n
\ \ \ Y 0 p<1
P Ei =P lim Ei = lim P Ei = lim P(Ei ) = lim pn =
n→+∞ n→+∞ n→+∞ n→+∞ 1 p=1
i=1 i=1 i=1 i=1
4. In questo caso è sufficiente considerare n+m−1 prove. Calcolando la probabilità di avere n successi
si ha la probabilità richiesta
(s, s, s, i) ∈ E (i, s, i, s) ∈ E c
Lanciando una moneta equa si sceglie l’urna; scelta l’urna si effettuano due estrazioni con reimmissione.
Calcolare
1. P(estrarre due palline rosse)
2. la probabilità che sia stata scelta U1 dato che sono state estratte due palline rosse
Si definisce Ri = {pallina rossa all’i-esima estrazione} pertanto
P(estrarre due palline rosse) = P(R1 ∩ R2 ) = P(R1 , ∩R2 |U1 ) + P(R1 , ∩R2 |U2 )
= P(U1 ) · P(R1 ∩ R2 |U1 ) + P(U2 ) · P(R1 ∩ R2 |U2 ) =
1 4 4 1 3 3 25
= · · + · · =
2 6 6 2 6 6 72
Per la risoluzione del punto 2. occore ricorrere al teorema di Bayes, pertanto si ha
1 4 4
P(U1 ) · P(R1 ∩ R2 |U1 ) 2 · 6 · 6 16
P(U1 |R1 ∩ R2 ) = = 25 =
P(R1 ∩ R2 ) 72
25
22 CAPITOLO 3. PROBABILITÀ CONDIZIONATA
dove HIV + = {soggetto sieropositivo} e T + = {test con risultato positivo}; saranno indicati anche
c c
HIV − = HIV + e T − = T + Si ha inoltre che sull’intera popolazione P(HIV + ) = 0.001
Si calcoli
1. P(T + )
2. P(HIV + |T + )
1.
P(T + ) = P(HIV + ) · P(T + |HIV + ) + P(HIV − ) · P(T + |HIV − )
C
P(T + |HIV − ) = P (T − ) HIV − = 1 − P(T − |HIV − )
P(T + ) = 0.001 · 0.99 + 0.999 · (1 − 0.99) = 0.001 · 0.99 + 0.999 · 0.01 = 0.01098
2.
P(HIV + ) · P(T + |HIV + ) 0.001 · 0.99
P(HIV + |T +) = +
= ≈ 0.09016
P(T ) 0.01098
3.
P(HIV + |T1+ ∩ T2+ ) · P(T1+ ∩ T2+ |HIV + )
P(HIV + |T1+ ∩ T2+ ) =
P(T1+ ∩ T2+ )
P(T1+ ∩ T2+ ) = P(HIV + ) · P(T1+ ∩ T2+ |HIV + ) + P(HIV − ) · P(T1+ ∩ T2+ |HIV − ) =
= P(HIV + ) · P(T1+ |HIV + ) · P(T2+ |HIV + ) + P(HIV − ) · P(T1+ |HIV − ) · P(T2+ |HIV − ) =
= 0.001 · (0.99)2 + 0.999 · (0.01)2
0.001 · (0.99)2
P(HIV + |T1+ ∩ T2+ ) = ≈ 0.00098
0.001 · (0.99)2 + 0.999 · (0.01)2
!
n
\
+ + 0.001 · (0.99)n
pn = P HIV Ti =
i=1
0.001 · (0.99)n + 0.999 · (0.01)n
p3 ≈ 0.99897
p4 ≈ 0.9999896
1
p = P(E) = P(studente conosce la risposta) P(C|E c ) =
m
C = {risposta corretta}
Calcolare probabilità che lo studente conosca la risposta dato che ha risposto correttamente.
P(E) · P(C|E)
P(E|C) =
P(C)
1
P(C) = P(E) · P(C|E) + P(E C ) · P(C|E C ) = p · 1 + (1 − p) ·
m
p·1 m·p
P(E|C) = 1 =
p · 1 + (1 − p) · m
m·p−p+1
3.1. DIPENDENZA CONDIZIONATA 23
Si sceglie una moneta a caso, la si lancia e da come risultato testa. Calcolare la probabilità che sull’altra
faccia vi sia la croce (cioè che si sia lanciata M3 ).
1
M1 = {scelgo la moneta i}, P(Mi ) =
3
P(M3 ) · P(T |M3 )
P(M3 |T ) =
P(T )
1 1 1 1 1
P(T ) = P(M1 ) · P(T |M1 ) + P(M2 ) · P(T |M2 ) + P(M3 ) · P(T |M3 ) = ·1+ ·0+ · =
3 3 3 2 2
1 1
3 · 2 1
P(M3 |T ) = 1 =
2
3
Esercizio 3.7 Una scatola contiene 3 tipi di lampadine diverse. La probabilità che una lampadina del
primo tipo superi le 1000h è 0.7, per una del secondo tipo è 0.4 e per una del terzo tipo è 0.3
Supponendo che il 20% sia del primo tipo, il 30% sia del secondo tipo e il 50% sia del terzo tipo
Calcolare la probabilita che una lampadina scelta a caso superi e 1000h e calcolare la probabilità che la
lampadina sia del primo tipo sapendo che supera le 1000h.
Esercizio 3.8 Si ha un album con n figurine. In ogni pacchetto di figurine si hanno k figurine.
pi = P(una figurina del pacchetto sia di tipo i), ∀i ∈ [1, n]∩N indipendentemente dalle altre figurine
3. P(Ai |Aj ), i 6= j
I tipi delle figurine sono indipendenti, pertanto si può pensare alle prove ripetute con pi come probabilità
di successo e (1 − pi ) come probabilità di insuccesso.
1. P(Ai ) = 1 − P(ACi ) = 1 − (1 − pi )
k
2. P(Ai ∪ Aj ) = 1 − P (Ai ∪ Aj )C = 1 − (1 − pi − pj )k
P(Ai ∩Aj )
3. P(Ai |Aj ) = P(Aj )
Variabili Aleatorie
Molto spesso si è interessati a “funzioni” degli esiti degli esperimenti più che agli esiti stessi, ad esempio
• Nel lancio di due dati si può essere interessati alla somma pari a 6, piuttosto che a come si ottiene
tale somma
• Nel caso di n lanci di una moneta, si potrebbe essere interessati al numero di lanci che hanno dato
testa, piuttosto che la sequenza esatta
• ...
Per ogni esempio che si può formulare si può sempre introdurre una funzione degli esiti o variabile alea-
toria.
Di queste variabili aleatorie ne esistono tante ma verranno trattate in dettaglio solo un limitato sottoin-
sieme di esse.
Esempio 4.1 (Passare un esame) Si suppone di provare a passare un esame presentandosi ad ogni
appello con la stessa preparazione e che ogni volta la probabilità di passarlo sia p. Nel caso in cui si venga
bocciati si riprova l’esame all’appello successivo.
Se X è il numero di volte che si ripete l’esame per passarlo si ha
Definizione 4.1 [Variabile Aleatoria e Legge di X] Dato uno spazio campionario S, una famiglia di
eventi e una probabilità P; una variabile aleatoria è una funzione X : S → R tale che
∀B ⊂ R, {X ∈ B} = {s : X(s) ∈ B}
è un evento.
All’evento {X ∈ B} è associata una probabilita
PX (B) = P(X ∈ B)
25
26 CAPITOLO 4. VARIABILI ALEATORIE
Osservazione 4.1 X
∀xi ∈ X, p(xi ) ≥ 0 p(xi ) = 1
xi ∈X
Definizione 4.4 [Valore medio o valor atteso] Sia X una v.a. discreta. Si definisce valore atteso o
media di X la quantità X
E(X) = xi · p(xi )
xi ∈X
2
se la serie è convergente. .
Esempio 4.2 (Valore atteso, dado) Si lancia un dato equo e X è il numero uscito.
Si ha che p(i) = 61 , i = {1, 2, . . . , 6}
1 1 1 1 1 1 1+2+3+4+5+6 21
E(X) = 1 · +2· +3· +4· +5· +6· = = = 3.5
6 6 6 6 6 6 6 6
Esempio 4.3 (Valore atteso, tram) A Melbourne (Australia), non si può acquistare il biglietto a bor-
do del tram.Solo occasionalmente, dei controllori passano e danno una multa ai passeggeri senza biglietto.
Il biglietto costa 2$, la multa è di 30$ e la probabilità di incontrare un controllore è del 5%.
Per minimizzare il costo medio sarebbe necessario comprare il biglietto?
Si definisce C il costo
• Comprando il biglietto il costo ogni volta è C con probabilità 1. Pertanto E(C) = 2 · 1 = 2$
• Non comprando il biglietto il costo è
– C = 0$ se non si incontra il controllore, P(C = 0) = 0.95
– C = 30$ se si incontra il controllore, P(C = 30) = 0.05
Pertanto
E(C) = 0 · 0.095 + 30 · 0.05 = 1.5$
In queste condizioni per minimizzare il costo medio non bisogna comprare il biglietto.
É possibile realizzare una funzione di utilità, U (X), in modo da riuscire meglio a caratterizzare il dif-
ferente atteggiamento degli sperimentatori. Infatti negli esperimenti precendenti si può capire che per
passare un esame uno studente potrebbe anche non essere disposto a farsi bocciare (per tanto vuol ridurre
il numero di bocciature). Utilizzando la funzione di utilità si calcola il valor atteso con E(U (X)).
2 nello svolgimento del corso si supporrà che il valor atteso esiste sempre
4.1. VARIABILI ALEATORIE DISCRETE 27
Pertanto
E(Y ) = 0 · P(Y = 0) + 1 · P(Y = 1) + 4 · P(Y = 4)
Proprietà 4.2 Sia X una v.a. aleatoria discreta e g una funzione a valori reali allora il valore atteso di
g(x) se esiste è dato da X
E(g(X)) = g(xi ) · P(xi )
xi ∈X
Proprietà 4.3 (Linearità del valore atteso) Il valore atteso è lineare rispetto a trasformazioni linea-
ri
• E(a · X + b) = a · E(X) + b
Dimostrazione 4.1
X X X X X
E(a·X+b) = (a·xi +b)·p(xi ) = a·xi ·p(xi )+ b·p(xi ) = a· xi ·p(xi )+b· = a·E(X)+b
xi ∈X xi ∈X xi ∈X xi ∈X xi ∈X
• E(f (X) + g(X)) = E(f (X)) + E(g(X)) con f, g funzioni a valori reali.
4.1.2 Varianza
Ogni variabile aleatoria, X, viene completamente caratterizzata dalla distribuzione ma può essere utile
sintetizzare le caratteristiche con delle “misure”. Si può osservare che negli esempi seguenti si ha sempre
un valore atteso nullo ma si può capire che le v.a. sono molto distinte pertanto è chiaro che manca un
valore discriminante, la varianza.
Esempio 4.5
X=0 probabilità = 1
Y = 1 e Y = −1 probabilità = 0.5
Z = 100 e Z = −100 probabilità = 0.5
Definizione 4.5 [Varianza] Sia X una v.a. di media E(X) allora la varianza di X è definita da
V ar(X) = E (X − E(X))2
Dimostrazione 4.2
V ar(X) = E (X − E(X))2 = E X 2 − 2 · E(X) + [E(X)] =
2
= E(X 2 ) − 2 · E(X) · E(X) + [E(X)] = E(X 2 ) − [E(X)]2
• V ar(X) ≥ 0
• V ar(a · X + b) = a2 · V ar(X)
28 CAPITOLO 4. VARIABILI ALEATORIE
Dimostrazione 4.3
V ar(a · X + b) = E [a · X + b − E(a ·X + b)]2 = E [a · X + b − a · E(X) − b]2 =
= E a2 · (X − E(X))2 = a2 · E (X − E(X))2 = a2 · V ar(X)
• É possibile trasformare una v.a., X, in una altra v.a. standardizzata,Y , che mantiene le seguenti
caratteristiche
X − E(X)
Y = E(Y ) = 0 V ar(X) = 1
σX
Dimostrazione 4.4
1 E(X)
Y =·X −
σX σX
1 E(X) 1 E(X)
E(Y ) = E ·X − = · E(X) − =0
σX σX σX σX
1 E(X) 1 V ar(X)
V ar(Y ) = V ar ·X − = 2 · V ar(X) = =1
σX σX σX V ar(X)
Definizione 4.6 [V.a. di Bernoulli] La variabile di Bernoulli di parametro p è X ∼ Be(p) che assume
valori in {0, 1}.
Tale v.a. gode delle seguenti proprietà
0 x<0
p(0) = 1 − p p(1) = p F (x) = 1 − p 0 ≤ x < 1 funzione di distribuzione
1 x≤1
E(X) = 0 · (1 − p) + 1 · p = p
E(X) = n · p V ar(X) = n · p · (1 − p)
n
X n
· pk · (1 − p)n−k = (p + 1 − p)n = 1n = 1
k
k=0
• V ar(X) = n · p · (1 − p)
n
X
V ar(X) = V ar(Xi ) = n · p · (1 − p) perchè le Xi sono indipendenti
i=1
Esempio 4.6 (Analisi del Sangue) Un numero N , molto grande, di persone, si deve sottoporre ad
un’analisi del sangue. Sono state pensate 2 procedure
Supponiamo che la probabilità di essere positivi al test sia p per ogniuna delle N persone e che questi
eventi sono indipendenti
1. trovare la probabilità che il test sia positivo per il campione formato dal miscuglio relativo a k
persone
2. qual’è il valore atteso e la varianza del numero di tes necessari, Y , con la seconda procedura? (si
suppone che N sia divisibile per k)
Risoluzione
1.
1 P(almeno 1 dei k è positivo) = q
Xi = Variabile di Bernoulli del i-esimo gruppo
0 P(nessuno dei k è positivo) = 1 − q
1 − q = (1 − p)k Z ∼ Bi(k; p)
| {z }
P(Z=0)
N
2. m = k = #(gruppi di k persone)
m
!
X
Y = m + k · X1 + k · X2 + . . . + k · Xm = m + k · Xi
i=1
| {z }
Bi(m,q)
m
!
X
E(Y ) = k · E Xi + m = k · m · q + m = m · (k · q + 1) = m · [k · (1 − p)k + 1]
i=1
n
! m
!
X X
V ar(Y ) = V ar k · Xi + m = k 2 · V ar Xi = k 2 · m · q · (1 − q)
i=1 i=1
e−λ · λk
p(k) = k∈X E(X) = λ V ar(X) = λ
k!
+∞ −λ +∞ k
X e · λk X λ
Dimostrazione 4.6 • = e−λ · = e−λ · eλ = 1
k! k!
k=0 k=0
+∞ +∞ +∞
X e−λ · λk X k · e−λ · λk −λ
X λk−
• E(X) = k· = =λ·e · = λ · e−λ · eλ = λ
k · (k − 1)! k · (k − 1)! n=1
(k − 1)!
k=0 k=1
• V ar(X) = E(X 2 ) − [E(X)]2 = E(X 2 ) − E(X) + E(X) − [E(X)]2 = E[X · (X − 1)] + E(X) − [E(X)]2
+∞ +∞ −λ +∞
X X e · λk −λ
X λk−2
E(X · (X − 1)) = k · (k − 1) · p(k) = =e 2
·λ · = λ2 · e−λ · eλ = λ2
(k − 2)! (k − 2)!
k=0 k=2 k=2
La distribuzione di Poisson può essere vista come una approssimazione della variabile Binomiale, sotto
determinate ipotesi.
Prosizione 4.1 (Legge degli eventi rari) Sia {Xn , n ≥ 1} con Xn ∼ Bi(n, pn ), se
allora
e−λ · λk
lim pXn (k) =
n→+∞ k!
λ
Dimostrazione 4.7 Lo si dimostra solo nel caso specifico di pn = n
k n−k
n λ λ
lim pXn (k) = lim · · 1− =
n→+∞ n→+∞ k n n
n −k
λk
n! λ λ
= lim · · 1− · 1− =
n→+∞ k! · (n − k)! nk n n
n −k
λk
n · (n − 1) · . . . · (n − k + 1) λ λ
= · lim · lim 1 − · lim 1 − =
k! n→+∞ nk n→+∞ n n→+∞ n
λk e−λ · λk
= · 1 · e−λ · 1 =
k! k!
4.1. VARIABILI ALEATORIE DISCRETE 31
Esercizio 4.1 Ogni anno la polizia municipale di Londra registra circa 160 omicidi e questo dato è stabile
da 5 anni. Si suppone che ogni omicidio è indipendente dagli altri.
Sembra strano ma questa apparente casualità è in qualche modo predicibile, nel senso che il numero di
omicidi giornalieri si adatta molto bene alla legge di Poisson di parametro λ = 160
365 ≈ 0.44 e quindi si può
calcolare la probabilità di
• un giorno tranquillo (senza omicidi), cioè P(X = 0)
• una settimana tranquilla (senza omicidi)
• a blody sunday, cioè 3 o più omicidi in un giorno
X ∼ P oisson(λ) omicidi giornalieri
Si suppone omogeneità temporale per gli omicidi, pertanto
160 160 0
e− 365 · 365
160
P(X = 0) = = e− 365 ≈ 0.65
0!
P(X ≥ 3)= 1 − P(X ≤ 2) = 1 − (P(X = 0) + P(X = 1)!+ P(X = 2)) =
160 2
− 160 − 160 160 e− 365 · 160365
= 1 − e 365 + e 365 · + ≈ 0.01
365 2
Si considera Y ∼ P oisson 160
365 · 7 , il numero di omicidi in una settimana; pertanto
160
P(Y = 0) = e− 365 ·7 ≈ 0.047
+∞ +∞ +∞
X X X 1 1
pX (k) = (1 − p)k−1 · p = p · 1−k =p· =p· =1
1 − (1 − p) p
k=1 k=1 k=0
La media vale
+∞
X +∞
X
E(X) = k · pX (k) = k · (1 − p)k−1 · p =
k=1 k=1
pX (1)+ pX (2)+ pX (3)+ . . .
= pX (2)+ pX (3)+ . . . = P(X ≥ 1) + P(X ≥ 2) + P(X ≥ 3) + . . . =
pX (3)+ . . .
+∞ +∞
X X 1
= P(X ≥ k) = (1 − p)k−1 =
p
k=1 k=1
2
1−p 1 1 2−2·p+p−1 1−p
V ar(X) = E(X · (X − 1)) + E(X) − [E(X)]2 = 2 · + − = =
p2 p p p2 p2
m n m n−1
E(X) = n − V ar(X) = n · · 1− · 1−
N M N N −1
Esempio 4.8 (Indagine) Si hanno N = 40 abitazioni; m = 5 numero di famiglie che si trovano sotto
il livello di povertà; n = 7 numero di famiglie campionate.
Sia X il numero di famiglie sotto il livello di potertà campionati, allora calcolare:
• P(X = 0)
• P(X = 4)
• P(X ≤ 2)
• P(X ≥ 3)
35
7
P(X = 0) = 40
7
5 35
4 · 3
P(X = 4) = 40
7
35 5 35 5 35
7 + 1 · 6 + 2 · 5
P(X ≤ 2) = pX (0) + pX (1) + pX (2) = 40
7
P(X ≥ 3) = 1 − P(X ≤ 2)
Esempio 4.9 (Modello di cattura e ricattura) Si ha una popolazione di N elementi, N non è noto
ma lo si vuol stimare. Si marchiano m elementi della popolazione e li si lasciano nel gruppo. Dall’intera
popolazione si estraggono n elementi, si hanno quindi k elementi ricatturati che sono marchiati.
m
N −m
k · n−k
P(X = k) = N
n
Si cerca N tale da massimizzare la probabilità P(X = k) (si ha quindi in questo modo una buona stima
sulla dimensione della popolazione).
Sono noti i parametri k, n ed m (chiaramente si deve avere N ≥ max(n, m)).
Si ha chiaramente che pX (k) è una funzione di N , la si può quindi considerare come successone di aN ;
ci si aspetta che aN sia crescente e da un punto in poi, N̂ , è decrescente.
Si cerca N̂ tale che aN̂ −1 ≥ aN̂
m
N −1−m
m
N −m
N −1−m
N −m
(N −1−m)! (N −m)!
k · n−k k · (n−k)!·(N −1−m−(n−k))! (n−k)!·(N −m−(n−k))!
N −1
≥ N
n−k ⇒ n−k
N −1
≥ n−k
N
⇒ (N −1)!
≥ N!
⇒
n n n n n!·(N −1−n)! n!·(N −n)!
N −m
N −m−(n−k) N −n N − m − (n − k) n n−k n n−k
⇒1≥ N
⇒ ≤ ⇒1− ≤1− ⇒ ≥ ⇒
N −n
N N −m N N −m N N −m
N −m n n−k N −m N −m n−k m k m k n·m
⇒ · ≥ · ⇒ ≥ ⇒1− ≥1− ⇒ ≤ ⇒N ≥
n N N −m n N n N n N n k
4.2. VARIABILI ALEATORIE CONTINUE 33
jm · nk
N̂ =
k
N̂ è detta stima di massima verosimiglianza; N̂ è la dimensione più probabile della popolazione presa in
esame.
Esempio 4.10 Un dispositivo scenico è fatto da 5 lampade di potenza diversa N = (40, 50, 75, 100, 200).
Un operatore vede che sono accese le lampade da 40 e da 200; ha a disposizione 5 interrutori e non sa
quale siano gli interruttori a cui corrispondono le lampade accesse. Determinare:
• P(X = k), dove X è il numero di luci spente dopo la manovra dell’operatore X = {1, 3, 5}
3
2 3
P(X = 1) = pX (1) = 5 =
2
10
2
1
P(X = 5) = pX (5) = 25 =
2
10
6
P(X = 3) = 1 − pX (1) − pX (5) =
10
3 6 1 3 + 18 + 5 26
E(X) = 1 · +3· +5· = = = 2.6
10 10 10 10 10
2
3 6 1 26 1394
V ar(X) = E(X 2 ) − [E(X)]2 = 1 · +9· + 25 · − = = 13.94
10 10 10 10 100
Definizione 4.9 [Variabile aleatoria continua] Una variabile aleatoria, X, si dice continua se esiste
Z
f : R → [0, +∞) : P(x ∈ B) = f (x) · dx
B
Definizione 4.10 [Funzione di densità] f (x) definita nell’integrale di una v.a. continua si dice funzione
di densità.
F (x) = P(X ≤ x)
Z b
Proprietà 4.6 • ∀B = [a, b] P(a ≤ X ≤ b) = f (x) · dx = F (b) − F (a)
a
34 CAPITOLO 4. VARIABILI ALEATORIE
C · (4 · x − 2 · x2 ) x ∈ (0, 2)
f (x) =
0 x∈/ (0, 2)
stabilire per quali valori di C la funzione f è una funzione di densità di una v.a. co0ntinua e calcolare
P(X > 1).
Affinchè f sia una funzione di distribuzione occorre imporre
• f (x) ≤ 0, ∀x
Z
• f (x) · dx = 1
R
e poichè Z +∞ Z 1 Z +∞ Z +∞
1
f (x) · dx = f (x) · dx + f (x) · dx = 1 ⇒ f (x) · dx =
−∞ −∞ 1 1 2
Si determini λ affinchè f sia una funzione di densità e si calcoli P(X > 50).
Poichè f (x) ≥ 0, ∀x ∈ R si ha che λ ≥ 0
Z +∞ Z +∞ Z +∞
x 1 x x +∞
λ·e− 100 ·dx = −100·λ· ·e− 100 ·dx = −100·λ· e− 100 0 = 100·λ = 1
f (x)·dx = −
−∞ 0 0 100
1
λ=
100
4.2. VARIABILI ALEATORIE CONTINUE 35
Pertanto x
1
· e− 100
100 x>0
f (x) =
0 x≤0
Z +∞ Z +∞
1 x x +∞ 50 1
· e− 100 · dx = e− 100 50 = e− 100 = e− 2
P(X > 50) = f (x) · dx =
−∞ 50 100
Esempio 4.13 X è una v.a. continua con funzione di densità fX . Detarminare la funzione di densità
della v.a. Y = 2 · X.
Poichè X è una v.a. continua allora lo è anche Y .
y y
∀y ∈ R, FY (y) = P(Y ≤ y) = P(2 · X ≤ y) = P X ≤ = Fx
2 2
y 1
fY (y) = FY0 (y) = fx ·
2 2
Per l’ultima relazione si sfrutta la derivata di un integrale definito
Z b(y)
∂ f (x) · dx
a(y) ∂F (b(y)) − F (a(y)) ∂F (b(y)) ∂F (a(y)) ∂b(y) ∂a(y)
= = − = f (b(y)) · − f (a(y)) ·
∂y ∂y ∂y ∂y ∂y ∂y
Dimostrazione 4.8
Z +∞ Z +∞ Z +∞ Z +∞ Z u Z +∞
P(X ≥ x)·dx = fX (u) · du ·dx = dx ·fX (u)·du = u·fX (u)·du = E(x)
0 0 x 0 0 0
Esempio 4.14 Sia X una v.a. continua con funzione di densità fX . Determinarela densità delle variabili
Y = X 2 , T = |X| e Z = a · X + b con a,b ∈ R.
Z z−b
z−b a
FZ (z) = P(a · X + b ≤ z) = P X ≤ = fX (x) · dx, a > 0, b ∈ R
a −∞
z−b
· − a1
fX a<0 z−b 1
∀a ∈ R\{0}, ∀b ∈ R, fZ (z) = z−b 1
a = fX ·
a · a a>0 a |a|
Prosizione 4.2 (Funzione di densità di una variabile aleatoria composta) Sia X una variabile
aleatoria continua e sia Y = g(X) con g una funzione monotona si ha
−1
−1
∂g (y)
fY (y) = fX (g (y)) ·
∂y
∂g −1 (y)
fY (y) = FY0 (y) = fX (g −1 (y)) ·
∂y
∂g −1 (y)
fY (y) = FY0 (y) = −fX (g −1 (y)) ·
∂y
−1
Pertanto fY (y) = fX (g −1 (y)) · ∂g ∂y(y)
Prosizione 4.3 Sia X una v.a. continua, con f la sua funzione di densità, e sia g una funzione reale
allora Z +∞
E(g(X)) = g(x) · f (x) · dx
−∞
Dimostrazione 4.11
Z +∞ Z +∞ Z +∞
E(a · X + b) = (a · x + b) · fX (x) · dx = a · x · fX (x) · dx + b · fX (x) · dx =
−∞Z +∞ −∞
Z +∞ −∞
Dimostrazione 4.12
Z +∞ Z +∞ Z +∞
E(f (X) + g(X)) = (f (x) + g(x)) · fX (x) · dx = f (x) · fX (x) · dx + g(x) · fX (x) · dx =
−∞ −∞ −∞
Esempio 4.15 (Tempi di attesa) Supponiamo che il numero di eventi che si verificanp oin un inter-
vallo di tempo [0, t] segue la distribuzione di Poisson, di parametro λ · t.
Mostrare che il tempo di attesa del primo evento è una v.a. continua con
λ · e−λ·x x > 0
fX (x) =
0 x≤0
e−λ·t · (λ · t)x
NT ∼ P oisson(λ · t) pX (x) =
x!
e−λ·t · (λ · t)0
P(T ≤ t) = 1 − P(T > t) = 1 − P(NT = 0) = 1 − = 1 − e−λ·t
0!
1 − e−λ·t
t>0
fT (t) = FT0 (t)=
0 t≤0
+∞ +∞ −λ·t
t>0
X X e · (λ · t)k
FTn = P(Tn ≤ t) = P(Tn ≤ n) = pNt (k) =
t=n
k!
k=n
+∞ −λ·t
X e · (−λ) · (λ · t)k + e−λ·t · k · (λ · t)k−1 · λ
fTn (t) = FT0 n (t)
= =
n=n
k!
+∞ −λ·t +∞
X e · λ · (λ · t)k X e−λ·t · λ · (λ · t)k−1
=− + =
k! (k − 1)!
k=n k=n
+∞ −λ·t +∞
X e · λ · (λ · t)k X e−λ·t · λ · (λ · t)j
=− + =
k! j=n−1
j!
k=n
+∞ +∞
X e−λ·t · λ · (λ · t)k X e−λ·t · λ · (λ · t)j e−λ·t · (λ · t)n−1 · λ e−λ·t · (λ · t)n−1 · λ
=− + + = , t>0
k! j=n
j! (n − 1)! (n − 1)!
k=n
fTn (t) è un caso particolare di una distribuzione notevole chiamata variabile aleatoria gamma.
Esempio 4.16 Si suppone che si ricevano, in media, 2 chiamate per ora (unità di misura di tempo) e
che si abbia appena finito una telefonata
3. Qual’è la probablità di aspettare più di 10 minuti e meno di 1 ora per la prossima chiamata?
Dai dati del problema è chiaro che la v.a. da considerare è T ∼ exp(2), pertanto
Z +∞
1. P(T > 1) = 2 · e−2·t · dt = [−e−2·t ]+∞
1 = e−2
1
Z 1 Z 61
1 6
−2·t
1 1
2. P T < = 2·e · dt + 2 · e−2·t · dt = [−e−2·t ]06 = 1 − e− 3
6 −∞ 0
1 1 1 1
P <T <1 = FT (1) − FT = P(T ≤ 1) − P T ≤ = 1 − P(T > 1) − P T ≤ =
3. 6 3 6 6
1 1
= 1 − e−2 − 1 + e− 3 = e− 3 − e−2
38 CAPITOLO 4. VARIABILI ALEATORIE
1
• V ar(X) =
λ2
Dimostrazione 4.14
V ar(X) = E((X − E(X))2 ) = E(X 2 ) − [E(X)]2
Z +∞ Z +∞ Z +∞
pp
E(X 2 ) = x2 · f (x) · dx = x2 · λ · e−λ·x · dx = [−e−λ·x · x2 ]+∞
0 + 2 · x · e−λ·x · dx =
−∞
Z +∞ 0 Z +∞ 0
2 2
=2· x · e−λ·x · dx = · x · e−λ·x · dx = 2
0 λ 0 λ
2 1 1
V ar(X) = E(X 2 ) − [E(X)]2 = 2 − 2 = 2
λ λ λ
• P(X > s + t|X > s) = P(X > t), proprietà di non memoria della distribuzione esponenziale (utile
per la modellizzazione di apparati non soggetti ad usura)
Dimostrazione 4.15
Z +∞
1 − FX (t) = R(t) = P(X > t) = λ · e−λ·u · du = e−λ·t , t > 0
t
f (x)
• la funzione di rischio è r(x) = = λ, ∀x > 0
1 − F (x)
Dimostrazione 4.16
f (x) λ · e−λ·x
r(x) = = = λ, ∀x > 0
1 − F (x) e−λ·x
Si può interpretare la funzione di rischio come il rapporto tra la memoria della distribuzione esponenziale
e una ampiezza (se questa tende a 0)
P(x ≤ X ≤ x + dx) dx→0 f (x) · dx P(x ≤ X ≤ x + dx|X > x)
P(x ≤ X ≤ x+dx|X > x) = ≈ = r(x)·dx ⇒ r(x) =
P(X > x) 1 − F (x) dx
4.2. VARIABILI ALEATORIE CONTINUE 39
λ · e−λ·x · (λ · x)α−1
x>0
f (x) = Γ(α)
0 x≤0
Z +∞
con Γ(α) = xα−1 · e−x · dx
0
b2 + a · b + a2
• V ar(X) =
3
Dimostrazione 4.19 Si ha che a ≤ b (per mantenere la relazione d’ordine dell’insieme (a, b))
b3 − a3 (b − a) · (b2 + a · b + a2 ) b2 + a · b + a2
= = =
3 · (b − a) 3 · (b − a) 3
40 CAPITOLO 4. VARIABILI ALEATORIE
x − a0
x<1
• F (x) = x ∈ (a, b)
b−a
1 x>1
Dimostrazione 4.20 Si ha che a ≤ b (per mantenere la relazione d’ordine dell’insieme (a, b))
Dimostrazione 4.21
Z +∞ Z +∞ u= √z2
1 (x−µ)2 z= x−µ 1 z2
√ · e− 2·σ2 · dx σ
= √ · e− 2 · dz =
−∞ 2·π·σ 2
−∞ 2·π
+∞ 2 +∞
e−u
Z Z
1 2 1
= √ · du = √ · e−u · du = √ · π = 1
−∞ π π −∞ π
Z +∞
2
I= e−u · du
−∞
Z +∞ Z +∞ √
2 −(u2 +v 2 )
I = e · du · dv = π ⇒ I = π
+∞ +∞ Z +∞ −∞ −∞
Z +∞
√
Z Z
−u2 2 x=u2 1 1 1
π= e · du = 2 · e−u · du = −x
√ · e · dx = x 2 −1 −x
· e · dx = Γ
−∞ 0 0 x 0 2
Dimostrazione 4.22
1 (x−µ)2
fX (x) = √ · e− 2·σ 2
2 · π · σ2
0 1 (x−µ)2
− 2·σ2 2 · (x − µ) x−µ 1 (x−µ)2
− 2·σ2
fX (x) =√ ·e · − =− · √ · e
2 · π · σ2 2 · σ2 σ2 2 · π · σ2
0 0 0
fX (x) > 0, ∀x < µ fX (x) = 0, x = µ fX (x) < 0, ∀x > µ
" 2 #
1 (x−µ)2 x−µ 1 1 (x−µ)2
00
· e− · e− 2·σ2 · (x − µ)2 − σ 2
fX (x) = √ 2·σ 2 · 2
− 2 =√
2 · π · σ2 σ σ 2 · π · σ2 · σ4
00 00 00
fX (x) < 0, ∀x ∈ (µ−σ, µ+σ) fX (x) = 0, ∀x ∈ {x−µ, x+µ} fX (x) > 0, ∀x ∈ R\[µ−σ, µ+σ]
4.2. VARIABILI ALEATORIE CONTINUE 41
Dimostrazione 4.23
Z +∞ +∞
x−µ
Z
(x−µ) µ (x−µ)
E(X) = x · fX (x) · dx = √ · e− 2·σ 2 +√ · e− 2·σ 2 · dx =
−∞ −∞ 2 · π · σ2 2 · π · σ2
+∞ Z +∞ − (x−µ)2 2
σ·z
Z
z= x−µ z2 e 2·σ
σ
= √ · e− 2 · dz + µ · √ · dx = 0 + µ · 1 = µ
−∞ 2·π −∞ 2 · π · σ2
Z +∞
σ·z z2
√ · e− 2 · dz = 0 perchè la funzione integranda è una funzione dispari
−∞ 2·π
• V ar(X) = σ 2
Dimostrazione 4.24
+∞ +∞ z2
z 2 · e− 2
Z Z
2 2 z= x−µ
σ 2
V ar(X) = E((X − µ) ) = (x − µ) · fX (x) · dx = σ · √ · dz =
−∞ −∞ 2·π
z2
!+∞ Z z2
+∞
p.p. z · e− 2
2
e− 2
= σ · − √ + √ · dz = σ 2
2·π −∞ 2 · π
−∞
1 (y−b−a·µ)2 1 (y−µ̃)2
=√ · e− 2·σ 2 ·a2 =√ · e− 2·σ̃ 2
2 · π · σ 2 · a2 2 · π · σ̃ 2
µ̃ = a · µ + b σ̃ 2 = a2 · σ 2
42 CAPITOLO 4. VARIABILI ALEATORIE
Esercizio 4.2 Sia X : altezzia di un bambino (di sette mesi) con X ∼ N (71[cm] , 6.25).
Calcolare:
• P(X > 74)
• P(X > 77)
• P(|X − µ| < 2)
X − 71 74 − 71 3
P(X > 74) =P √ > √ =P Z> √ = P(Z > 1.2) =
6.25 6.25 6.25
= 2 · Φ(0.8) − 1 ≈ 0.57628
Per l’ultimo risultato si poteva effettuare anche un ragionemento più “geometrico”; cioè poichè gli estremi
sono simmetrici rispetto al valor medio (µ = 0) allora
Z z̃
1
z̃ = 0.8 P(−z̃ < Z < z̃) = 2 · A A= fX (x) · dx = Φ(z̃) − Φ(0) = Φ(z̃) −
0 2
1
P(−z̃ < Z < z̃) = 2 · A = 2 · Φ(z̃) − 2 · = 2 · Φ(z̃) − 1
2
Esercizio 4.3 Sia Z la distribuzione normale standardizzata, determinare la distribuzione Z 2 .
FZ 2 (u) = 0, ∀u ≤ 0
√ z2
u
√ √ √ e− 2
Z
2
FZ 2 (u) = P(Z ≤ u) = P(− u ≤ Z ≤ u) = 2 · Φ( u) − 1 = 2 · √ · dz
−∞ 2·π
− 21 ·u − 12
12
−u e ·u · 1
e 2 1
fZ 2 (u) = FZ0 2 (u) =2· √ · √ = √ 2
2·π 2· u π
Sia X ∼ gamma(α, λ)
λα · xα−1 · e−λ·x
fX (x) =
Γ(α)
1
pertanto ponendo α = λ = 2 si ha che fX (u) = fZ 2 (u) e quindi
1 1
Z 2 ∼ gamma ,
2 2
4.2. VARIABILI ALEATORIE CONTINUE 43
La risoluzione dell’esercizio precedente porta alla definizione della va continua χ21 (dove il pedice 1 indica
il numero di gradi di libertà).
Nel caso generale, cioè nel caso di χ2n si ha
n
X
χ2n := Zi2
i=1
Come si può osservare bisogna maneggiare numeri estremamente grandi, mentre accettando una piccola
approssimazione si può calcolare la medesima probabilità approssimando la distribuzione binomiale con
una distribuzione normale, X̃
1000 5000
X̃ ∼ N ,
6 36
poichè si approssima una distribuzione discreta con una distribuzione continua P(X = x̂) ≈ P X̃ − ε ≤ x̂ ,
ponendo ε = 0.5 si ha P(X = x̂) ≈ P x̂ − 0.5 ≤ X̃ ≤ x̂ + .05 . Seguendo questa strada si ha che
200
X 200
X
P(150 ≤ X ≤ 200) = P(X = k) ≈ P(k − 0.5 ≤ X̃ ≤ k + 0.5) = P(150 − 0.5 ≤ X̃ ≤ 200 + 0.5) =
k=150
k=150
1000
150 − 0.5 − 6 X̃ − 1000 2000 + 0.5 − 1000
= P q ≤ q 6 ≤ q 6
=
5000 5000 5000
36 36 36
1000 1000
150 − 0.5 − 6 2000 + 0.5 − 6
= P q ≤Z≤ q =
5000 5000
36 36
√ √ !
103 · 2 203 · 2
=P − ≤Z≤ ≈ P(−1.457 ≤ Z ≤ 2.871) =
100 100
Ricorrendo invece alla proprietà di non memoria della distribuzione esponenziale (P(X > s + t|X > s) =
P(X > t))
Z +∞ i+∞
1 − 1 ·x h 1 1
P(X > 10|X > 9) = P(X > 9 + 1|X > 9) = P(X > 1) = · e 2 · dx = −e− 2 ·x = e− 2
1 2 1
Xn
Dalla definizione di FXY è possibile ricavare la distribuzione di X e Y , definendole funzioni di distribuzioni
marginali.
Definizione 4.19 Si definisce funzione di distribuzione marginale di FXY
FX (x) = P(X ≤ x) = P(X ≤ x, Y ≤ +∞) = lim FXY (x, y)
y→+∞
p : X × Y → [0, 1]
p(x, y) ≥ 0, ∀(x, y) ∈ X × Y
X [
p(x, y) = 1 = P(S) = P (X = xi , Y = yj )
(x,y)∈X×Y xi ∈ X
yj ∈ Y
X
pY (y) = p(x, y), y ∈ Y
x∈X
[ [ X X
pX (x) = P(X = x) = P X = x, Y = y = P (X = x, Y = y) = P(X = x, Y = y) = p(x, y)
y∈Y y∈Y y∈Y y∈Y
Esempio 4.17 Si consideri un’estrazione di 3 palline da un’urna composta da 3 palline rosse, 4 blu e 5
bianche. Siano X e Y rispettivamente il numero di palline rosseestrette e il numero di palline blu estrette.
Supposto che tutte le estrazioni sono equiprobabili, determinare la distribuzione congiunta di X e Y .
x ∈ X = {0, 1, 2, 3} y ∈ Y = {0, 1, 2, 3}
f deve soddisfare ZZ
f (x, y) · dx · dy = 1
R2
Z x Z y
FXY (x, y) = f (u, v) · du · dv
−∞ −∞
46 CAPITOLO 4. VARIABILI ALEATORIE
Se le X e Y sono congiuntamente continue allora anche le v.a. X e P sono continue, inoltre la funzione
di densità della X e Y si dicono densità marginali.
Z
fX (x) = f (x, y) · dy, x ∈ R
R
Z
fY (y) = f (x, y) · dx, y ∈ R
R
Le relazioni sopra siZ ottengono differenziando
x Z +∞
FX (x) = P(X ≤ x, −∞ < y < +∞) f (u, v) · du · dv
−∞ −∞
Esempio 4.20 Un dispositivo smette di funzionare appena entrambe le componenti smettono di funzio-
nare.
La densità congiunta dei tempi di vita dei 2 componenti, misurato in ore, è
x+y
8 0 < x < 2, 0 < y < 2
f (x, y) =
0 altrimenti
Determinare la probabilità che il dispositivo smette di funzionare nella prima ora.
cioè conoscere il valore di una delle variabile non modifica la distribuzione di probabilità dell’altra.
Utiizzando gli assiomi della probabilità si può dimostrare che due variabili aleatorie X e Y sono indipen-
denti se e solo se
FXY (x, y) = FX (x) · FY (y), ∀A, B
2 · e−x · e−2·y
2 x > 0, y > 0
∀(x, y) ∈ R , fXY (x, y) =
0 altrimenti
Si determini
• P(X > 1, Y < 1)
• P(X < Y )
• P(X < a)
X
• la densità di Z = Y
Z +∞ Z 1 Z +∞ Z 1
P(X > 1, Y < 1) = 2 · e−x · e−2·y · dy · dx = e−x · 2 · e−2·y · dy · dx =
Z1 +∞ 0 1 0
−x −2 −1 −2
= e · (1 − e ) · dx = e · (1 − e )
1
Z Z +∞ Z +∞
P(X < Y ) = e−x ·
fXY (x, y) · dx · dy = 2 · e−2·y · dy · dx =
Z{(x,y):
+∞
x<y}
0 −3·x +∞ x
e 1
= e−x · e−2·x · dx = =
0 3 0 3
Z +∞ Z a Z +∞
P(X < a) = 2 · e−2·y · e−x · dx · dy = 2 · e−2·y · (1 − e−a ) · dy = 1 − e−a , a > 0
0 0 0
0 a<0
P(X < a) =
1 − e−a a>0
48 CAPITOLO 4. VARIABILI ALEATORIE
X 0 z≤0
Z= ⇒ FZ (z) =
Y P(Z ≤ z)z>0 z > 0
Z +∞ Z z·y
X
P(Z ≤ z)z>0 =P ≤ z = P(X ≤ z · Y ) = 2 · e−2·y · e−x · dx · dy =
Z +∞ Y Z0 +∞ 0 Z
+∞
−2·y −z·y −2·y
2·e · (1 − e ) · dy = 2·e · dy − 2 · e−(z+2)·y · dy =
0 Z +∞ 0 0
2 2 z
1− · (2 + z) · e−(2+z)·y · dy = 1 − =
2+z 0 2+z 2+z
0 z≤0
FZ (z) = z
2+z z >0
Esercizio 4.7 Ugo e Zoe si danno appuntamento all’ingresso di un locale con l’accordo di aspettarsi per
solo 10 minuti.
Se ogniuno di loro arriva indipendentemente dall’altro in un istante compreso tra le 21 e le 22, determinare
la probabilità che entrino insieme nel locale.
Si definiscono le seguenti v.a.
1 2
u, z ∈ (0, 60)
fU Z (u, z) = 60
0 u, z ∈
/ (0, 60)
6 · e−2·x · e−3·y
x > 0, y > 0
fXY (x, y) =
0 altrimenti
Q = [0, 1] × [0, 1] 0 < x < 1, 0 < y < 1, 0 < x + y < 1 ≡ Q ∩ (0 < x + y < 1) = T
Z
Poichè fX (x) è chiaramente 0 se ha x < 0 o x > 1 e tra 0 e 1 vale 24 · x · y · dx · dy > 0 (lo stesso
T
discorso vale per fY (y) oichè ha formulazione equivalente); se X e Y fossero indipendenti si avrebbe che
fXY (x, y) = fX (x) · fY (y) > 0, ∀(x, y) ∈ Q che è in contraddizione con la fXY (x, y) fornita, pertanto, X
e Y sono v.a. non indipendenti.
Analiticamente si ha
Z Z 1−x
fX (x) = 24 · x · y · dx · dy = 24 · x · y · dy = 12 · x · (1 − x)2
T 0
Z Z 1−y
fY (y) = 24 · x · y · dx · dy = 24 · x · y · dx = 12 · y · (1 − y)2
T 0
É evidente che
Z =X +Y
Z +∞ Z z−x Z +∞
FZ (z) = P(Z ≤ z) = P(X + Y ≤ z) = fX (x) · fY (y) · dy · dx = fX (x) · FY (z − x) · dx
−∞ −∞ −∞
Z +∞
fZ (z) = FZ0 (z) = fX (x) · fY (z − x) · dx = fX+Y (z) = fX ? fY caso continuo
−∞
X X
pZ (z) = pX+Y (z) = pX (x) · pY (y) = pX (x) · pY (z − x) pY (λ) = 0, λ ∈
/Y caso discreto
x+y=2 x∈X
Analisi Matematica
51
Capitolo 5
C = R2 = {∀x, y ∈ R : x + i · y}
a differenza di R in C è presente un’unità immaginaria tale che i2 = −1, inoltre in C non è possibile
definire relazioni d’ordine1 .
5.1 Rappresentazioni
Un numero z ∈ C : z = (x, y) può essere rappresentato nei seguenti modi2
forma cartesiana
z
forma polare o trigonometrica, se z 6= 0, z = |z| · |z| , poichè
z
∃ϑ ∈ R : = (cos(ϑ), sin(ϑ)) = cos(ϑ) + i · sin(ϑ)
|z|
z = ρ · (cos(ϑ) + i · sin(ϑ)) ρ = |z|, ϑ = arg(z)
z = ρ · ei·ϑ
modulo rappresenta la distanza euclidea del numero complesso dall’origine, nel piano complesso
q
2 2
|z| := Re [z] + Im [z]
fase rappresena l’angolo che vi è tra l’asse reale e la congiungente del numero complesso con l’origine
del piano complesso
arctan Im[z] Re [z] ≥ 0
Re[z]
arg(z) :=
arctan Im[z] + π Re [z] < 0
Re[z]
53
54 CAPITOLO 5. RIPASSO NUMERI COMPLESSI
coniugato rappresenta il numero complesso riflesso all’asse reale, vi è cambiamento di segno solo sulla
parte immaginaria
z := x − i · y
• siano z1 = x1 + i · y1 ∈ C e z2 = x2 + i · y2 ∈ C
z+z
Re [z] =
2
z−z
Im [z] =
2·i
inverso p 2
2
z · z = (x + i · y) · (x − i · y) = x2 + y 2 = x2 + y 2 = |z|
1 1 z z
z −1 := = · = 2
z z z |z|
z z
z− z
i
ϑ
Real[z] z+ z
1 Imag[z] z − z
z+ z − z z
2·i
2
z z
(a) Piano Complesso (ρ, ϑ, z) (b) Piano Complesso, evidenziato il (c) Piano Complesso, evidenziato il
procedimento per ricavare Re [z] procedimento per ricavare Im [z]
Figura 5.1: Sintesi grafica della rappresentazione di numeri complessi sul piano di Gauss (piano complesso)
5.3. ESERCIZI 55
• ei·ϑ = e−i·ϑ
• e−i·ϑ = 1
ei·ϑ
n
• ∀n ∈ N ei·ϑ = ei·n·ϑ
5.3 Esercizi
Esercizio 5.1 (11/11/2006) Risolvere in C l’equazione
2
z 2 + 2 · z = 5 · |z|
5
z =0∪z =
4
f (x, y) = x2 − y 2 − 2 · y + 2 · i · x · (1 − y)
x2 − y 2 − 2 · y + 2 · i · x · (1 − y) = x2 − y 2 − 2 · y + 2 · i · x − 2 · i · x · y = (x − i · y)2 + 2 · (i · x − y) =
= (x − i · y)2 + 2 · i · (x + i · y) = z 2 + 2 · i · z
56 CAPITOLO 5. RIPASSO NUMERI COMPLESSI
(1 + 2 · i) · (3 − 4 · i) 3+4·i+6·i−6 −3 + 10 · i
z= = =
9 + 16 25 25
Esercizio 5.6 Scrivere in forma polare (trigonometrica) i seguenti numeri complessi
• z=i π π
|z| = |i| = 1 π
π ⇒ z = cos + i · sin = ei· 2
arg(i) = 2 2 2
• z =1+i √ √
√ h π i √
π
|z| = 1 + 1 = 2 π
π ⇒ z = 2 · cos + i · sin = 2 · ei· 4
arg(i) = 4 4 4
• z = i · (1 + i) = i − 1
√ √
√ √
|z| = 1 + 1 = 2 3 3 3
3 ⇒ z = 2 · cos − · π + i · sin − · π = 2 · e−i· 4 ·π
arg(i) = − 4 · π 4 4
• z = sin(ϑ) + i · cos(ϑ)
√
1 + 7 · i 2+i· π
Esercizio 5.7 Calcolare il modulo di z = √ ·e 8
3−i
√
1 + 7 · i π √1 + 7
√
|z| = √ · e2 · ei· 8 = √ · e2 = 2 · e2
3 − i 3+1
1−i
Esercizio 5.8 Sia z = i , calcolare z 9
1−i √ 5
z= = −i · (1 − i) = −i − 1 = 2 · ei· 4 ·π
i
√ √ √
z 9 = ( 2)9 · ei·9· 4 ·π = 16 · 2 · ei·(10+ 4 )·π = 16 · 2 · ei· 4 ·π
5 5 5
b2 − 4 · a · c = 16 − 16 + 16 · i = 16 · i
π
w2 = 16 · i w2 = 16 · i = 16 · ei· 2
ρ=4 ρ=4
⇒ ⇒ ⇒ k ∈ {0, 1}
w = ρ · ei·ϑ w2 = ρ2 · ei·2·ϑ 2 · ϑ = π2 + 2 · k · π ϑ = π4 + k · π
pertanto √ √ √ √
1 5
z1 = 4 · ei· 4 ·π = 2 · 2+i·2· 2, z2 = 4 · ei· 4 ·π = −2 · 2−i·2· 2
58 CAPITOLO 5. RIPASSO NUMERI COMPLESSI
Capitolo 6
Funzioni complesse
ez = ez ⇔ z = z + i · 2 · π · k ≡ x + i · y = x − i · y + 2 · π · k ≡ y = k · π k∈Z
Poichè l’esponenziale complesso è il prodotto di un esponenziale reale con la rappresentazione esponenziale
di un numero complesso valgono tutte le proprietà di uso abituale.
6.2.1 Proprietà
2 i·z 2
ei·z − e−i·z e + e−i·z
2 2
1 = sin (z) + cos (z) = + =
2·i 2
1 1
= − · ei·2·z − 2 · ei·z−i·z + e−i·2·z + · ei·2·z + 2 + e−i·2·z =
4 4
1 4
= · −ei·2·z + 2 − e−i·2·z + ei·2·z + 2 + e−i·2·z = = 1
4 4
i·z −i·z
e −e
sin(z) = 0 ⇔ z = k · π, k ∈ Z ⇔ = 0 ≡ ei·z = e−i·z ≡ e−y · ei·x = ey · e−i·x ≡
2y · i −y
e =e y=0
≡ ≡ k∈Z
x = −x + 2 · k · π x=k·π
ei·z + e−i·z
cos(z) = 0 ⇔ z = π
2 + k · π, k ∈ Z ⇔ = 0 ≡ ei·z = −e−i·z = e−i·z · ei·π ≡
2
≡ e−y · ei·x = ey · ei·(π−x) ≡
ey = e−y y=0
≡ ≡ k∈Z
x=π−x+2·k·π x = π2 + k · π
59
60 CAPITOLO 6. FUNZIONI COMPLESSE
6.3.1 Proprietà
cosh2 (z) − sinh2 (z) = 1
sinh(z) = 0 ⇔ z = k · π · i, k ∈ Z
π
cosh(z) = 0 ⇔ z = · i + k · π · i, k ∈ Z
2
6.4 Esercizi
Esercizio 6.1 (11/02/2009) Disegnare il dominio della funzione e trovare gli zeri di
ei·3·z − 1
f (z) =
z4 − 4
dominio dom(f ) = {z ∈ C : z 4 6= 4}
√
z4 = 4 z 4 = 4 = 4 · ei·0 ρ4 = 4
ρ= 2
⇒ ⇒ ⇒ k ∈ {0, 1, 2, 3}
z = ρ · ei·ϑ z 4 = ρ4 · ei·4·ϑ 4·ϑ=2·k·π ϑ = k · π2
n√ π
o n √ √ o
dom(f ) = C\ 2 · ei·k· 2 , k ∈ {0, 1, 2, 3} = C\ ±i · 2, ± 2
2
i·3·z =i·2·k·π ⇒3·z =2·k·π ⇒z = ·k·π k ∈Z
3
Occorre, infine, verificare se gli zeri trovati fanno parte del dominio. Attraverso il grafico si può
osservare che gli zeri sono tutti interni al dominio.
sqrt(2) ⋅i
1
−2/3 ⋅π 2/3 ⋅π 4/3 ⋅π
−4/3 ⋅π 0
0
- sqrt(2) sqrt(2)
−1
−sqrt(2) ⋅i
−2
−3
−4
−5
−5 −4 −3 −2 −1 0 1 2 3 4 5
Figura 6.1
2
f (z) = 0 ⇒ z = ·k·π k ∈Z
3
6.4. ESERCIZI 61
sin(2 · π · z)
f (z) =
8 − z3
n 2 4
o
dom(f ) = {z ∈ C : 8 6= z 3 } = C\ 2, 2 · ei· 3 π , 2 · ei· 3 ·π
k
sin(2 · π · z) = 0 ≡ 2 · π · z = k · π ≡ z = k∈Z
2
k
f (z) = 0 ⇒ z = k∈Z
2
Esercizio 6.3 Risolvere in C l’equazione e disegnare il luogo degli zeri
(z − i)2 · (z + i) = 9 · z − i · 9
(z − i) · (z + i) = 9 ∪ z = i
z·z+i·z−i·z+1=9∪z =i
z · z + i · (z − z) = x2 + y 2 + i · (i · 2 · y) = x2 + y 2 − 2 · y = 8 ∪ z = i
zeri: {z ∈ C : |z − i| = 3} ∪ z = i
2 3
1 i
−1
−2
−3
−4
−5
−5 −4 −3 −2 −1 0 1 2 3 4 5
Figura 6.2
62 CAPITOLO 6. FUNZIONI COMPLESSE
Capitolo 7
Br (z0 ) = {z ∈ C : |z − z0 | < r}
∀r > 0, Br (z0 ) 6⊆ D
D := D ∪ ∂D
∂Br (z0 ) = {z ∈ C : |z − z0 | = r}
Br (z0 ) = {z ∈ C : |z − z0 | ≤ r}
Definizione 7.6 Sia D ⊆ C, z0 ∈ C si dice punto di accumulazione per D se ogni intorno di z0 contiene
infiniti punti di D, tali punti sono punti nei quali è possibile calcolare il limite.
63
64 CAPITOLO 7. ANALISI IN CAMPO COMPLESSO
7.1 Curve in C
Definizione 7.7 Una curva in C è una funzione γ : [a, b] → C continua.
γ([a, b]) è l’immagine di γ sull’intervallo [a, b]; l’immagine si dice anche sostegno.
Esempio 7.4
γ : [0, 2 · π] → C
i·t
γ(t) := z0 + r · e = x0 + i · y0 + r · cos(t) + i · r · sin(t) = x0 + r · cos(t) + i · [y0 + r · sin(t)]
γ è continua poichè sin e cos sono funzioni continue
Definizione 7.9 Una curva ha derivata continua se ha le componenti della curva hanno derivate conti-
nue.
u, v ∈ C 1 ⇒ γ ∈ C 1
Definizione 7.10 γ si dice C 1 a tratti se ha derivata continua tranne un numero finito di punti, cioè
Definizione 7.11 Sia Ω ⊆ C aperto, Ω si dice connesso se dati due qualsiasi punti esiste una curva,
interamente contenuta in Ω, che li unisce.
7.2 Limiti
Definizione 7.12 Sia f : D ⊆ C → C e sia z0 punto di accumulazione di D, si dice che
se
∀ε > 0, ∃δε > 0 : 0 < |z − z0 | < δε ⇒ |f (z) − l| < ε
Anche in campo complesso valgono le principali proprietà algebriche dei limiti in campo reale.
Cioè se f → l, g → m per z → z0 allora
lim f (z)
f (z) z→z0 l
∀z ∈ Br (z0 ) : g(z) 6= 0, m 6= 0 : lim = =
z→z0 g(z) lim g(z) m
z→z0
7.3. DERIVATA COMPLESSA 65
f (x + i · y) = (x + i · y)2 − (x − i · y) = x2 − y 2 − x + i · (2 · x · y + y)
u(x, y) = x2 − y 2 − x v(x, y) = 2 · x · y + y
poichè u e v sono continue allora f è continua.
Per la derivata complessa non è sufficiente la derivabilità di u e v; infatti z non è derivabile, nel senso
complesso, in C.
Esiste un teorema che afferma che se f (z) = u(z) + i · v(z) è analitica in Ω allora u, v ∈ C 1 (Ω).
Osservazione 7.1 Sia u(x, y) armonica e sia v(x, y) una sua armonica coniugata. In generale, però,
u(x, y) non è un’armonica coniugata di v(x, y).
Teorema 7.1 Sia f (z) = u(z) + i · v(z) : Ω → C; supponiamo che u, v ∈ C 1 (Ω) allora f è derivabile in
z0 = x0 + i · y0 se e solo se valgono le equazioni di Cauchy-Reimann2 in z0
∂u ∂v
(x , y ) = (x0 , y0 )
∂x 0 0
∂y
∂u ∂v
(x0 , y0 ) = − (x0 , y0 )
∂y ∂x
1 lim f (z) = f (z0 )
z→z0
2 nel seguito della trattazione tali equazioni saranno denominate C-R
66 CAPITOLO 7. ANALISI IN CAMPO COMPLESSO
Cioè
∂u ∂v
(x , y ) = (x0 , y0 )
∂x 0 0
∂y
f è derivabile ⇔
∂u ∂v
(x0 , y0 ) = − (x0 , y0 )
∂y ∂x
Dimostrazione 7.1 La dimostrazione bisogna eseguirla per entrambi i sensi dell’implicazione.
∂u ∂v
(x , y ) = (x0 , y0 )
∂x 0 0
∂y
• f è derivabile ⇒ L’idea è quella di calcolare la derivata come limite
∂u ∂v
(x0 , y0 ) = − (x0 , y0 )
∂y ∂x
del rapporto incrementale avvicinandosi a z lungo i due assi coordinati
f (z) − f (z0 ) f (x, y0 ) − f (x0 , y0 ) f (x, y0 ) − f (x0 , y0 )
f 0 (z0 ) = lim = lim = lim =
z → z0 z − z0 z → z0 x − x0 x→x 0 x − x0
z = (x, y0 ) z = (x, y0 )
f (z) − f (z0 ) u(z) + i · v(z) − u(z0 ) − i · v(z0 ) u(z) − u(z0 ) + i · [v(z) − v(z0 )]
lim = lim = lim =
z→z0 z − z0 z→z0 z − z0 z→z0 h z − z0 i
∂u ∂u ∂v ∂v
∂x (z0 ) · (x − x0 ) + ∂y (z0 ) · (y − y0 ) + i · ∂x (z0 ) · (x − x0 ) + ∂y (z0 ) · (y − y0 )
= lim =
z→z0
∂u h z − z0 i
∂v ∂u ∂v
(z
∂x 0 ) + i · (z
∂x 0 ) · (x − x0 ) + ∂y (z0 ) + i · ∂y (z0 ) · (y − y0 )
= lim =
z→z0
∂u z − z0 h i
∂v ∂v ∂u
∂x (z0 ) + i · ∂x (z0 ) · (x − x0 ) + i · ∂y (z0 ) − i · ∂y (z0 ) · (y − y0 )
= lim =
z→z0 ∂u z − z0
∂v
(z0 ) · (x − x0 ) + i · ∂u ∂v
C-R (z0 ) + i · ∂x ∂x (z0 ) + ∂x (z0 ) · (y − y0 )
= lim ∂x =
z→z
0 z − z0
∂u ∂v
(z0 ) + i · ∂x (z0 ) · (z − z0 ) ∂u ∂v
= lim ∂x = (z0 ) + i · (z0 )
z→z0 z − z0 ∂x ∂x
Si è quindi riusciti a dimostrare che il limite del rapporto incrementale esiste e soprattutto che la
derivata vale
∂u ∂v
f 0 (z0 ) = (z0 ) + i · (z0 )
∂x ∂x
7.4 Esercizi
Esercizio 7.1 Determinare la derivata e l’insieme di derivabilità delle seguenti funzioni
• f (z) = ez
ez = ex · ei·y = ex · cos(y) + i · ex · sin(y)
Si osserva che u e v sono funzioni C 1 (R2 ) (addirittura sono C ∞ (R2 ), occorre quindi verificare la
veridicità delle C-R
∂u ∂v
(z) = (z) x
e · cos(x) = ex · cos(x)
∂x ∂y ⇒
∂u ∂v −ex · sin(x) = − (ex · sin(x))
(z) = −
∂y ∂x
∂u ∂v
f 0 (z) = (z) + i · (z) = ex · cos(y) + i · ex · sin(y) = ez
∂x ∂x
∂ez
∀z ∈ C, = ez
∂z
• f (z) = sin(z)
ei·z − e−i·z
sin(z) =
2·i
ei·z − e−i·z
∂ sin(z) ∂ 1 1
= 2·i = · i · ei·z − (−i) · e−i·z =
· i · ei·z + e−i·z = cos(z)
∂z ∂z 2·i 2·i
∂ sin(z)
∀z ∈ C, = cos(z)
∂z
• f (z) = cos(z)
ei·z + e−i·z
cos(z) =
2
ei·z + e−i·z
∂ cos(z) ∂ 1 1
= 2 = · i · ei·z + (−i) · e−i·z = · i · ei·z + e−i·z = − sin(z)
∂z ∂z 2 2
∂ cos(z)
∀z ∈ C, = − sin(z)
∂z
68 CAPITOLO 7. ANALISI IN CAMPO COMPLESSO
n
X
• f (z) = ai · z i
i=0
0 z − z0
poichè (z) = lim = 1 e sfruttando la derivata del prodotto si ha che
z→z0 z − z0
0
z2 = z · z = 1 · z + z · 1 = 2 · z
0
z3 = z2 · z = 2 · z · z + z2 · 1 = 3 · z2
0
procedendo per induzione si ha che (z n ) = n · z n−1 pertanto
n
! n
∂ X X
f 0 (z) = ai · z i = ai · z i+1
∂z i=0 i=1
n
! n
∂ X X
∀z ∈ C, ai · z i = ai · z i+1
∂z i=0 i=1
• f (z) = sinh(z)
ez − e−z
sinh(z) =
2
ez − e−z
∂ sinh(z) ∂ 1 1
= 2 = · ez − −e−z = · ez + e−z = cosh(z)
∂z ∂z 2 2
∂ sinh(z)
∀z ∈ C, = cosh(z)
∂z
• f (z) = cosh(z)
ez + e−z
sinh(z) =
2
ez + e−z
∂ cos(z) ∂ 1 1
= 2 = · ez + −e−z = · ez − e−z = sinh(z)
∂z ∂z 2 2
∂ cosh(z)
∀z ∈ C, = sinh(z)
∂z
cos(4 · z)
Esercizio 7.2 (15/02/2007) Determinare l’insieme de analiticità di f (z) = .
(2 · z + i) · (z 2 + 5)
Poichè cos(4 · z) è derivabile, perchè composizione di funzioni derivabili, e poichè il denominatore è un
polinomio e quindi derivabile si ha che f (z) è derivabile in tutto il dominio di f .
√
i
dom(f ) = C\{z ∈ C : 2 · z + i = 0, z 2 + 5 = 0} = C\ − , ±i · 5
2
√
i
f è derivabile in C\ − , ±i · 5
2
Esercizio 7.3 Dire dove è derivabile:
• f (z) = z
f (z) = z = x − i · y
∞ 2
Poichè u, v ∈ C (R ) si verificano le C-R.
∂u ∂v
(z) = (z)
1 = −1
∂x ∂y ⇒
∂u ∂v 0=0
(z) = −
∂y ∂x
Poichè la prima equazione non vale per nessun z ∈ C allora z non è mai derivabile.
2
• f (z) = |z|
2
f (z) = |z| = x2 + y 2
Poichè u, v ∈ C ∞ (R2 ) si verificano le C-R.
∂u ∂v
(z) = (z)
2·x=0 x=0
∂x ∂y ⇒ ⇒
∂u ∂v 2 · y = 0 y=0
(z) = −
∂y ∂x
2
Pertanto |z| è derivabile solo per z = 0.
Capitolo 8
Integrali
Definizione 8.1 [Punto iniziale, punto finale] Il punto γ(a) è detto punto iniziale, mentre il punto γb è
detto punto finale.
Definizione 8.2 [Curva chiusa] Una curva si dice chiusa se il punto iniziale coincide con il punto finale.
γ(a) = γ(b)
Definizione 8.4 [Curva di Jordan o curva semplice] Una curva si dice di Jordan o semplice se la curva
non passa mai due volte per lo stesso punto, fatta eccezione del punto iniziale; cioè
Esempio 8.1
γ1 = z0 + r · ei·t , t ∈ [0, 2 · π]
γ1 è una curva di Jordan perchè è la parametrizzazione di un giro di circonferenza di raggio r e centro
z0 .
γ2 = z0 + r · ei·t , t ∈ [0, 4 · π]
γ2 non è una curva di Jordan perchè è la parametrizzazione di due giri di circonferenza di raggio r e
centro z0 .
Re [γ(t)], Im [γ(t)] : C → R
Poichè l’integrale della curva si scompone in due integrali di funzione reale di variabile reale valgono tutte
le proprietà valide per gli integrali presentati nel corso di Analisi Matematica I.
69
70 CAPITOLO 8. INTEGRALI
Definizione 8.6 [Teorema fondamentale del calcolo integrale] Sia γ, Γ curve tali che Γ0 (t) = γ(t) allora
Z b Z b
γ(t) · dt = Γ0 (t) · dt = Γ(b) − Γ(a)
a a
Definizione 8.7 [Integrale curvilineo] Sia f : Ω ⊆ C → C continua e sia γ : [a, b] → Ω, C 1 a tratti su Ω
Z Z b
f (z) · dz := f (γ(t)) · γ 0 (t) · dt
γ a
La nuova ridefinizione dell’integrale è un integrale di una curva pertanto è possibile risolverlo mediante
la scomposizione della parte reale e della parte immaginaria.
Proprietà 8.1 Se γ1 , γ2 sono due diverse parametrizzazioni dello stesso sostegno che lo percorrono nello
stesso verso e lo stesso numero di volte allora
Z Z
f (z) · dz = f (z) · dz
γ1 γ2
Proprietà 8.2 Se γ1 , γ2 percorrono lo stesso sostegno lo stesso numero di volte ma con verso opposto
allora Z Z
f (z) · dz = − f (z) · dz
γ1 γ2
Proprietà 8.4 Sia γ : [a, b] → C curva C 1 a tratti che percorre il sostegno una sola volta ( curva iniettiva)
allora Z !
f (z) · dz ≤ sup |f (z)| · L(γ)
γ z∈γ([a,b])
con Z b
L(γ) := |γ 0 (t)| · dt
a
detta lunghezza della curva.
Definizione 8.8 [Insieme regolare] Sia Ω ⊆ C aperto e connesso. Ω si dice regolare o regione con bordo
es ∂Ω (frontiera di Ω) è l’unione di un numero finito di curve di Jordan disgiunte.
Esempio 8.2 Ω1 = Br (z0 ) Ω1 è regolare poichè ∂Ω1 è racchiuso una circonferenza (curva di Jordan).
Ω2 = {z ∈ C : 1 < |z + i| < 2} ∂Ω2 è l’unione di due circonferenze disgiunte, pertanto Ω2 è regolare.
Ω3 = {z ∈ C : |z + 1| < 2, |z + 1| 6= 1} ∂Ω3 è l’unione di due curve disgiunte ma Ω3 non è regolare
poichè l’insieme non è connesso (ad esempio i punti (−1, 0) e 21 , 0 non sono collegabili da una curva
che resti sempre in Ω3 )
Teorema 8.2 (di Cauchy-Goursat) Sia A ⊆ C aperto, connesso e regolare e sia f : A → C continua
e analitica in A allora Z
f (z) · dz = 0
∂A
Definizione 8.9 [Indice di avvolgimento] Sia Γ : [a, b] → C una curva di Jordan che circonda z0 ∈ C.
Si definisce indice di Γ Z
1 dz
IΓ = Ind(Γ, z0 ) := ·
2 · π · i Γ z − z0
Dimostrazione 8.2 Sia Γ una curva di Jordan qualsiasi, contenente z0 ∈ C, si prende Br (z0 ) tale che
stia tutto all’interno dell’area racchiusa da Γ.
Per il teorema di Cauchy-Goursat si ha che
Z Z Z Z
dz dz dz dz
= − = −2·π·i=0
Γ∪Br (z0 ) z − z 0 Γ z − z 0 Br (z0 ) z − z0 Γ z − z0
Z
dz
IΓ = =2·π·i
γ z − z0
72 CAPITOLO 8. INTEGRALI
Osservazione 8.1 Sia f (z) analitica in Ω ⊆ C aperto. Siano γ1 , γ2 due curve di Jordan disgiunte
contenute in Ω, una interna all’altra allora
Z Z
f (z) · dz f (z) · dz
γ1 γ2
Infatti per Cauchy-Goursat applicato all’area racchiusa tra le due curve si ha che
Z Z Z Z Z
f (z) · dz = f (z) · dz − f (z) · dz = 0 ⇒ f (z) · dz = f (z) · dz
∂A γ1 γ2 γ1 γ2
Definizione 8.10 [formula di Cauchy per le derivate] Sia f analitica in A aperto, regolare; continua su
A e regolare
Z
n! f (w)
∀n ∈ N : ∃f (n) (z) = · dw
2 · π · i ∂A (w − z)n+1
Dimostrazione 8.4 Si può dimostrare, non lo si fa, che si può derivare f (z) sotto il segno di integrale,
pertanto
Z
1 f (w)
f 0 (z) = · dw
2 · π · i ∂A (w − z)2
Z
00 2 f (w)
f (z) = · dw
2 · π · i ∂A (w − z)3
per induzione si ha che
Z
(n) n! f (w)
∀n ∈ N : ∃f (z) = · dw
2·π·i ∂A (w − z)n+1
Corollario 8.1 Sotto l’ipotesi di f analitica in un insieme apero si ha che f ∈ C ∞ (A); in particolare si
ha che se f (z) = u(x, y) + i · v(x, y)
u, v ∈ C ∞ (A)
In R C 1 ⊃ C 2 ⊃ . . . ⊃ C ∞
In C C 1 = C 2 = . . . = C ∞
8.3 Esercizi
Esercizio 8.1 Calcolare
Z b
I= ei·t · dt
a
b b
ei·t
Z
1
I= ei·t · dt = = · (ei·b − ei·a ) = −i · (ei·b − ei·a )
a i a i
dove γ è il cammino chiuso semplice avente come sostegno la circonferenza di centro Z0 = 0 e raggio
r = 1, percorsa in senso antiorario.
Si ha subito che
γ(t) = z0 + r · ei·t = ei·t , t ∈ [0, 2 · π]
Z Z 2·π Z 2·π Z 2·π
0 −i·t i·t
2 · i + 3 · i · ei·t · dt =
I = (2 · z + 3) · dz = (2 · γ(t) + 3) · γ (t) · dt = 2·e + 3 · i · e · dt =
γ 2·π 0 0 0
= 2 · i · t + 3 · ei· t 0 = 4 · i · π + 3 − 0 − 3 = 4 · i · π
74 CAPITOLO 8. INTEGRALI
dove
γ : [0, 1] → C γ(t) = (t, t − t2 ) = t + i · (t − t2 )
Provando a risolvere l’integrale attraverso la definizione si potrebbero
Z avere passaggi molto lunghi, ma
applicando Cauchy-Goursat si ha che poichè f (z) è analitica allora f (z) · dz = 0 con γ̃ curva di
γ̃∪γ −
natura più semplice rispetto a γ ma con stasso punto iniziale e finale.
γ̃ = t t ∈ [0, 1]
pertanto
1 1
t2
Z Z Z
i
I= (2 − i · z) · dz = (2 − i · z) · dz = (2 − i · t) · dt = 2 · t − i · =2−
γ γ̃ 0 2 0 2
Esercizio 8.5 Calcolare Z
12 · z 2 − 4 · i · z · dz
I=
γ
Tracciando il grafico di C si osserva che la curva parte dal punto (1, 1) e giunge nel punto (2, 3) effettuando
il percorso una sola volta. Poichè f è analitica allora si può prendere un percorso alternativo che abbia
come punti iniziale e finale gli stessi punti di C. Si formano quindi
γ1 = t + i t ∈ [1, 2] γ2 = 2 + i · t t ∈ [1, 3]
in questo modo γ − ∪ γ1 ∪ γ2 forma un percorso chiuso e per il teorema si ha che
Z Z Z Z
I = f (z) · dz = f (z) · dz = f (z) · dz + f (z) · dz =
Zγ2 γ1 ∪γ2 γ1 Z γ2
3
· 12 · (t + i)2 − 4 · (t + i) · dt + 12 · (2 + i · t)2 − 4 · (2 + i · t) · dt =
=
1Z 1
2 Z 3
2
−3 · t2 + 10 + i · 11 · t · dt =
=4· · 3 · t − t − 3 + i · (6 · t − 1) · dt + 4 ·
1 1 3 !
t2 2 t2
3 2 3
=4· t − −3·t+i· 3·t −t + −t + 10 · t + 11 · i · =
2 1 2 1
5
=4· + 8 · i − 6 + 44 · i = −14 + 208 · i
2
Esercizio 8.6 Calcolare Z
1 dz
I= ·
2·π·i γ z − z0
dove γ curva di Jordan con senso positivo e sia z0 ∈ C all’interno di γ Poichè γ è una curva di Jordan
(percorre il sostegno, C, una sola volta) si ha
I = Ind(γ, z0 ) = 1
1
É possibile utilizzare tale formula in quanto f (z) = z−z0 è analitica in C\Br (z0 ), ∀r ∈ R+ : Br (z0 ) ⊂ C
8.3. ESERCIZI 75
γ è la parametrizzazione di un ellisse.
z 12
Z
I= · dz
C ecos(z)
con C = {z ∈ C : |z + 2| = 1}6 .
z 12
Poichè f (z) = ecos(z) è analitica in C (cmposizione di funzioni analitiche) si ha per il teorema di Cauchy-
Goursat che Z
f (z) · dz = 0
C
I=0
2 · π · i ∂ 23 ez+1
2·π·i 3
I= · 23
= ·e
23! ∂z
z=2 23!
78 CAPITOLO 8. INTEGRALI
Capitolo 9
Successioni e Serie
lim |zn − l| = 0
n→+∞
9.1 Serie in C
Definizione 9.2 [Serie complessa] Una serie si dice complessa se il termine generale della serie è
complesso
+∞
X
cn , cn ∈ C
n=0
+∞
X
Prosizione 9.2 (Convergenza serie complessa) Una serie complessa, cn , converge alla somma
n=0
s se converge la successione delle somme parziali; cioè
+∞ k
!
X X
cn = s ⇔ lim ck =s
k→+∞
n=0 n=1
1. La serie converge se converge la serie delle parti reali e la serie delle parti immaginarie.
2. Se la serie converge allora lim cn = 0 cioè anche se lim |cn | = 0
n→+∞ n→+∞
+∞
X +∞
X
3. Se converge la serie in valore assoluto, |cn |, converge allora cn converge. Se si ha conver-
n=0 n=0
genza assoluta allora si ha anche convergenza semplice (non vale l’opposto).
79
80 CAPITOLO 9. SUCCESSIONI E SERIE
+∞
X
Teorema 9.1 (Convergenza serie di potenze) Se S(z) := an · (z − z0 )n allora ∃R ∈ R+
0 (raggio
n=0
di convergenza)
• S(z) converge se z ∈ BR (z0 )
• S(z) non converge se z ∈ C\BR (z0 )
Definizione 9.4 [Raggio di convergenza] Si definisce raggio di convergenza
1 1
R= an+1 =
p
lim lim n |an |
n→+∞
n→+∞ an
per convenzione se il limite vale 0 allora R = +∞; mentre se il limite vale +∞ allora R = 0
Definizione 9.5 [Serie geometrica] La serie
+∞
X
zn
n=0
1
si dice serie geometrica; tale serie converge a 1−z con |z| < 1
Teorema 9.2 (Derivata per serie) Sia
+∞
X
S(z) = an · (z − z0 )n
n=0
+∞ n
f (w) X z − z0
Z
1 T
= · · · dw =
2·π·i C w − z0 n=0 w − z0
+∞ Z +∞ (n)
T
X 1 f (w) n
X f
= · · dw · (z − z0 ) = · (z − z0 )n
n=0
2·π·i C (w − z0 )n+1 n=0
n!
9.3. ESERCIZI 81
T
“=” suppone la conoscenza di un teorema che consente di trasportare il simbolo di serie “fuori” dal
simbolo di integrale.
Inoltre l’indipendenza di C deriva dall’applicazione del teorema di Cauchy-Gousart.
9.3 Esercizi
Esercizio 9.1 (06/09/2005) Determinare l’insieme di convergenza di
+∞
X (z − 4)n
n=1
n3 · (9 · i)n
1
Si osserva che la serie è una serie di potenza centrata in z0 = 4 con an =
n3 · (9 · i)n
n3 · (9 · i)n
1 an+1 1
= ⇒R=9
= lim = lim
3 n
R n→+∞ an n→+∞ (n + 1) · 9 · i · (9 · i) 9
r
1 pn n 1 1 1
= lim |ab | = lim = lim √ 3 = ⇒R=9
R n→+∞ n→+∞ n3 · 9n n→+∞ n n · 9 9
Se |z − z0 | = R, cioè |z − 4| = 9, si considera
1 n 1 1
|an · (z − z0 )n | = · |z − 4| = 3 n · 9n = 3
n3 · 9n n ·9 n
+∞ +∞ +∞
X 1 X
n
X
poichè 3
converge allora converge |an · (z − z 0 ) | e di conseguenza anche an ·(z−z0 )n pertanto
n=0
n n=0 n=0
la serie
+∞
X
an · (z − z0 )n
n=0
+∞ +∞
X (n + 3) · z 2·n X (n + 3)
n n
= n · 5n
· wn , w = z 2
n=0
i · 5 n=0
i
Si studia la serie in w e poi si trasformano i risultati in z.
(5 · i)n
1 n+3+1 n+4 1
= lim · = lim = ⇒ Rw = 5
Rw n→+∞ 5 · i · (5 · i)n n + 3 n→+∞ 5 · (n + 3) 5
82 CAPITOLO 9. SUCCESSIONI E SERIE
poichè lim |an | 6= 0 allora la serie non converge per |w| = 5 Il raggio di convergenza trovato precen-
n→+∞
dentemente riguarda la serie in w, pertanto la serie converge per
√
|w| = z 2 < 5 ⇒ |z| < 5
+∞ +∞
X e−2·n·i·z X wn
i 3 n
= i 3 n]
, w = e−2·i·z
n=2
e · [n + (−1) ] n=2
e · [n + (−1)
ei · [n3 + (−1)n ]
1 an+1
= 1 ⇒ Rw = 1
= lim = lim
Rw n→+∞ an n→+∞ ei · [(n + 1)3 − (−1)n ]
Se |w| = 1
1 1 n→+∞ 1
|an · wn | =
i 3 n
= →
e · (n + (−1) ) n + (−1)n
3 n3
+∞
X +∞
X
n
Poichè |an · w | converge allora an · wn converge. Pertanto la serie converge se
n=2 n=2
|w| ≤ 1 ⇒ e−2·i·z ≤ 1
−2·i·z
e = eRe[−2·i·z] = eRe[−2·i·x+2·y] = e2·y ≤ 1
Pertanto la serie converge in
{z ∈ C : Im [z] ≤ 0}
Esercizio 9.4 Sia f : C → C analitica tale che f (z) = 0, ∀z ∈ C. Provare che f (z) = 0, ∀z ∈ C.
Per il teorema dello sviluppo in serie si ha che
+∞ (n)
X f (0) n
f (z) = · z R = +∞
n=0
n!
+∞ +∞
X (z + 3 · i)2·n+1 X
n (z + 3 · i)2
= (z + 3 · i) · w , w =
n=0
(3 + 4 · i)n n=0
3+4·i
poichè si ha usa serie geometrica si sa che Rw = 1 pertanto
+∞
X 1
wn =
n=0
1−w
+∞
X 1 1 (z + 3 · i) · (3 + 4 · i)
(z + 3 · i) · wn = (z + 3 · i) · = (z + 3 · i) · =
1−w (z + 3 · i)2 3 + 4 · i − (z + 3 · i)2
n=0 1−
3+4·i
9.3. ESERCIZI 83
(z + 3 · i)2 |z + 3 · i|2 √
|w| = = < 1 ⇒ |z + 3 · i| < 5
3+4·i 5
La serie converge per z ∈ B√5 (−3 · i)
+∞
X (z + 3 · i)2·n+1 (z + 3 · i) · (3 + 4 · i)
n
=
n=0
(3 + 4 · i) 3 + 4 · i − (z + 3 · i)2
+∞
X
w wn
Ricordando che e = , R = +∞ si ha che
n=1
n!
+∞ +∞
X (3 · i)n · (z − i)n X [(3 · i) · (z − 1)]n
= = e(3·i)·(z−i) − 1, R = +∞
n=1
n! n=1
n!
+∞
X 1
wn = − 1, ∀w : |w| < 1
n=1
1−w
+∞
X 1 e2·z+i·z
e2·n·z+i·n·z = − 1 =
n=1
1 − e2·z+i·z 1 − e2·z+i·z
+∞
X e2·z+i·z
e2·n·z+i·n·z = , ∀z ∈ {w ∈ C : Im [w] > 2 · Re [w]}
n=1
1 − e2·z+i·z
+∞ √ +∞ √
X 3
n · (z + i)4·n X 3
n
2 + (i + 3) · log n
= 2 + (i + 3) · log n
· wn , w = (z + i)4
n=1
2 · i · n n=1
2 · i · n
Utilizzando il criterio del rapporto si ha
√
2 · i · n2 + (i + 3) · log(n)
3
an+1 n+1
lim = lim · √ =1⇒R=1
n→+∞ an n→+∞ 2 · i · (n + 1)2 + (i + 3) · log(n + 1) 3
n
Se |w| = 1 si ha
√ √ √
n · wn
3
=
3
n n→+∞ 3 n
→ 1 1
2 · i · n2 2 · i · n2− 13 = 2 · n 53
=
2 · i · n2 + (i + 3) · log(n) 2 · i · n2 + (i + 3) · log(n)
+∞ +∞
X X 1
|an · wn | = 5 converge
n=1 n=1 2 · n3
Pertanto l’insieme di convergenza della serie è
|w| ≤ 1 ⇒ (z + i)4 ≤ 1 ⇒ |z + i| ≤ 1 ≡ z ∈ B1 (−i)
84 CAPITOLO 9. SUCCESSIONI E SERIE
Capitolo 10
Teorema 10.1 (Teorema di Laurent) Siano 0 ≤ r1 < r2 ≤ +∞ e sia f analitica in {r1 < |z − z0 | <
r2 }, z0 ∈ C, allora
+∞ +∞ +∞
X n
X c−k X
f (z) = cn · (z − z0 ) := k
+ cn · (z − z0 )n , ∀z ∈ Br2 (z0 )\Br1 (z0 )
n=−∞ n=1
(z − z0 ) n=0
dove Z
1 f (w)
cn := · dw
2·π·i C (w − z0 )n+1
con C una qualunque circonderenza di centro z0 e raggio r ∈ (r1 , r2 )
Definizione 10.1 [Singolarità isolata di f ] Sia Ω aperto, z0 ∈ Ω e sia f (z) analitica in Ω\{z0 }, si dice
che z0 è una singolarità isolata di f .
85
86 CAPITOLO 10. TEOREMA DI LAURENT E DEI RESIDUI
+∞
X
Definizione 10.6 [Zero di ordine h] Se f (z) = cn · (z − z0 )n con h ∈ N+ , z0 si dice singolarità
n=h
eliminabile o apparente, se ch 6= 0 z0 si dice zero di ordine h.
g(z)
Teorema 10.2 (Calcolo dei residui, poli semplici) Se z0 è un polo sempolice per f (z) allora f (z) = ,
z − z0
con g analitica in Ω; sotto quest’ipotesi
+∞
X
g(z) = c−1 + cn · (z − z0 )n+1
n=0
Teorema 10.3 (Calcolo dei residui, poli multipli) Se z0 è un polo di ordine n ∈ N con n > 1 allora
g(z)
f (z) =
(z − z0 )n
n(z)
Osservazione 10.1 Se f (z) = con n, d analitiche in Ω con
d(z)
n(z0 )
allora z0 è un polo semplice di f e Resf (z0 ) =
d0 (z0 )
Teorema 10.4 (dei Residui) Se C è una curva do Jordan e se f è analitica all’interno di C (è
sufficiente che C racchiuda le singolarità), tranne che nelle singolarità isolate z1 , z2 , . . . , za
Z a
X
f (z) · dz = 2 · π · i · Resf (() zk )
C k=1
10.2. ESERCIZI 87
Dimostrazione 10.2 Per il teorema di Cauchy-Goursat poichè il bordo dell’insieme preso in esame è
a
[
∂Ω = ∂Brk ∪ C
k=1
Integrando su ∂Ω, ricordando che le varie curve devono essere percorse in senso positivo si ha che
Z Z a Z !
X
0 = f (z) · dz = f (z) · dz − f (z) · dz =
∂Ω C k=1 ∂Brk
Z a
X Z a
X
= f (z) · dz − 2 · π · i · Resf (zk ) ⇒ f (z) · dz = 2 · π · i · Resf (() zk )
C k=1 C k=1
10.2 Esercizi
Esercizio 10.1 (17/11/2007) Trovare lo sviluppo di Laurent in z0 = 0 nella regione C\{0} di
sinh 2 · z 2
f (z) =
z 11
e ricavare i residui e le singolarità di f .
Attraverso lo sviluppo di McLaurin si ha
+∞ +∞ 2·n+1 +∞ 2·n+1
1 X (2 · z 2 )2·n+1 X 2 · z 4·n−9 2 23 25 X 2 · z 4·n−9
f (z) = · = = + + +
z 11 n=0 (2 · n + 1)! n=0
(2 · n + 1)! |z
9 z5
3! ·{z 5! · z} n=3 (2 · n + 1)!
potenze negative | {z }
potenze positive
25 1
Resf (0) = coefficiente di
5! z
z0 = 0 è un polo di ordine 9 di f
Resf (0) = 0 z0 è un punto di singolarità essenziale di f (ha infiniti termini con potenza negativa)
" +∞ #
α−3 1 X 1
= (α − 3) · z + − α · + (α − 3) ·
2 z n=0
(2 · n)! · z 2·n−1
α−3 3+α
Resf (0) = −α=−
2 2
se α 6= 3, z0 è un punto di singolatrità essenziale
se α = 3, z0 è un punto di singolatrità semplice
88 CAPITOLO 10. TEOREMA DI LAURENT E DEI RESIDUI
Lo sviluppo trovato è valido nella regione di spazio, poichè la serie geometrica ha raggio di convergenza
R = 1, pertanto si ha convergenza per |z| < 1.
+∞
X +∞
X +∞
X
f (z) = (z 3 −4)· z 2·n−3 = z 2·n −4· z 2·n−3 = 1 + z + z 2 + z 3 + . . . −4· z −3 + z −2 + z −1 + 1 + z + z 2 + . . .
n=0 n=0 n=0
(z + 1)2
f (z) =
(z − 1)2
z0 = 1 è un polo doppio poichè
g(z)|z0 =1 = (z + 1)2 z = 22 = 4 6= 0
0 =1
z1 = 1 + i z2 = −i z3 = i
I poli z1 e z3 sono interni alla curva, mentre z2 è esterno alla curva; pertanto
" #
1 1
I = 2 · π · i · [Resf (i) + Resf (1 + i)] = 2 · π · i + 2 =
(z + i) · (z − 1 − i) z=i z + i z=1+i
1 1 1 1
=2·π·i· + =2·π·i − +
2 · i · (−1) 1 + 2 · i − 1 + 1 2·i 1+2·i
z2
Z
I= 3 · dz
2
c (z + 1) · z − i · 2
I poli z1 e z3 sono interni alla curva, mentre z2 è esterno alla curva; pertanto
" #
z2 z 2
3
I = 2 · π · i · Resf (i) + Resf ·i =2·π·i + 2 =
(z + i) · z − i · 23
2 z + 1 z= 3 ·i
z=i 2
" #
− 94
−1 9 4
=2·π·i + = 2 · π · i · −1 + =2·π·i·
2 · i · − 2i − 94 + 1
5 5
90 CAPITOLO 10. TEOREMA DI LAURENT E DEI RESIDUI
Capitolo 11
Distribuzioni
derivando ancora la funzione H(x) si ottiene a(x) = f 00 (x) = H 0 (x) = 0, ∀x 6= 0 ma è chiaro che tale
funzione non è soddisfacente dal punto di vista modellistico poichè in a(x) non vi sono informazioni
sull’impulso presente in x = 0.
L’idea di Schwarz1 è quella di abbandonare il punto di vista puntuale (cioè non si guarda più il valore delle
Z b
1
funzioni punto per punto) ma guardando le medie integrali delle funzioni, cioè si guarda · f (x)·dx
b−a a
al posto di g(x)
Esempio 11.1 Si ipotizza che f ∈ C 1 pertanto
b b
f (b) − f (a)
Z Z
1 0 1
v= = · f (x) · dx = · v(x) · dx
b−a b−a a b−a a
Definizione 11.1 [Funzione indicatrice] Si definisce una nuova funzione detta funzione indicatrice o
funzione caratteristica
1 x ∈ [a, b]
χ[a,b] (x) = 11[a,b] (x) =
0 x∈/ [a, b]
Attraverso il teorema della media integrale, se f (x) ∈ C 0 , tramite il teorema della media integrale è
possibile ricavare f (x) attraverso la sola conoscienza della media integrale di f (x), infatti, poichè
Z x+h
1
g(xc ) = · g(t) · dt, con xc ∈ [x − h, x + h]
2·h x−h
1 detentore della medaglia Fields per questo
91
92 CAPITOLO 11. DISTRIBUZIONI
facendo tendere h a 0 si ha !
Z x+h
1
g(x) = lim · g(t) · dt
h→0 2·h x−h
11[a,b]
É comunque possibile utilizzare (si può anche dimostrare) funzioni C ∞ “vicine” a b−a ; pertanto se si
conosce Z +∞
f (x) · ϕ(x) · dx, ∀ϕ ∈ C ∞ del tipo sopra
−∞
Z +∞ Z 0 Z +∞ Z +∞
− H(x)·ϕ0 (x)·dx = − H(x)·ϕ0 (x)·dx− H(x)·ϕ0 (x)·dx = − ϕ0 (x)·dx = −[ϕ(x)]+∞
0 = ϕ(0)
−∞ −∞ 0 0
cioè invece che la derivata classica (punto per punto), si considera la corrispondenza phi 7→ ϕ(0) che si
chiama delta di Dirac che non è una funzione a valori reali, ma è un nuovo oggetto che verrà denotato
con Distribuzione.
• f (x) = x2 .
supp(f ) = R
poichè f (x) 6= 0, ∀x 6= 0 pertanto f (x) 6= 0 ∈ (−∞, 0) ∪ (0, +∞) ma chiudendo l’insieme si ha
(−∞, +∞) = R
11.2. DISTRIBUZIONE: DEFINIZIONI RIGOROSE 93
• f (x) = sin(x)
supp(f ) = R
poichè f (x) 6= 0, ∀x 6= k · π, k ∈ Z
+∞
[
f (x) 6= 0, ∀ (k · π, (k + 1) · π)
k=−∞
Definizione 11.3 [funzione test] Si dice funzione test una funzione ϕ : R → C che gode delle seguenti
proprietà:
• ϕ ∈ C∞
• supp(ϕ) è un insieme compatto2
Esempio 11.4 (funzione a supporto compatto) Un tipico esempio di funzione a supporto compatto
è
0 |x| ≥ 1
ϕ(x) = 1
x2 + 1
e |x| < 1
supp(ϕ) = [−1, 1]
Non è facile, ma è possibile dimostrare per induzione che ϕ ∈ C ∞ (R), pertanto ϕ è una funzione test.
Definizione 11.4 [Notazione funzione test] L’insieme delle funzioni test è denotato con D(R) o più
semplicemente D.
Definizione 11.5 [Norme di funzioni] Data una funzione f : I ⊆ R → R è possibile definire le seguenti
norme
Z +∞
norma 1 ||f ||2 = |f (x)| · dx
−∞
Z +∞
2
norma 2 o norma quadratica ||f ||1 = |f (x)| · dx
−∞
Richiamo di Analisi II
Sia fn , f : I → R si dice che fn converge uniformemente ad f se
lim sup |fn (x) − f (x)| = lim ||fn (x) − f (x)|∞ | = 0
n→+∞ x∈I n→+∞
ϕ+ψ ∈D
D è uno spazio vettoriale, cioè se ϕ, ψ ∈ D ⇒
λ · ϕ ∈ D, ∀λ ∈ C
2 insiem compatto è equivalente a sistema chiuso e limitato, cioè ∃R > 0 : ϕ(x) = 0, ∀x ∈ [−R, R]
94 CAPITOLO 11. DISTRIBUZIONI
T : D(R) → C
ϕ 7→ T (ϕ) = hT, ϕi
tale che
• T è lineare, cioè
unif
• T è continua, cioè se ϕn → ϕ ∈ D allora hT, ϕn i → hT, ϕi (questione tecnica)
ϕn → 0 ∈ D e hT, ϕn i → 0, n → +∞
ϕ → 0 ∈ D ⇒ hT, ϕn i → 0, n → +∞
hT, ϕn i → 0, n → +∞
ma
hT, ϕn i = hT, ψn − ψi = hT, ψn i − hT, ψi
quindi
hT, ψn i − hT, ψi → 0 ⇒ hT, ψn i → hT, ψi
x2 è localmente sommabile
1
• f (x) = p
|x|
Z b 1 Z b
1
∀a,b ∈ R, p · dx = p · dx ∈ R
a |x| a |x|
√1 è localmente sommabile
|x|
1
• f (x) =
x
Z 1
dx 1
Poichè non converge allora x non è localmente sommabile
0 x
11.3. OPERAZIONI 95
Tf : D → C
Z +∞
hTf , ϕi := f (x) · ϕ(x) · dx, ϕ ∈ D
−∞
Definizione 11.10 [distribuzione regolare] Una distribuzione, T , del tipo Tf , con f ∈ R1loc si dice
regolare.
Definizione 11.11 [delta di Dirac] Sia x0 ∈ R si dice delta di Dirac centrata il x0 la distribuzione
δx0 : D → C
hδx0 , ϕi := ϕ(x0 )
11.3 Operazioni
Definizione 11.12 [Traslazione della distribuzione] Sia T ∈ D0 e sia x0 ∈ R si dice traslazione della
distribuzione (di x0 ) la distribuzione T(x−x0 ) definita da
T(x−x0 ) , ϕ := hT, ϕ(x + x0 )i , ∀ϕ ∈ D
Definizione 11.13 [Riscalamento della distribuzione] Sia T ∈ D0 ,b ∈ R\{0} si dice riscalamento della
distribuzione o modulazione della distribuzione la distribuzione T(b·x) definita da
x
1
T(b·x) , ϕ := T, ·ϕ· , ∀ϕ ∈ D
|b| b
un caso particolare è quando si ha b = −1, infatti T(−x) , ϕ = hT, ϕ(−x)i è detta inversione temporale,
nome significativo quando la variabile x indica un tempo.
96 CAPITOLO 11. DISTRIBUZIONI
Definizione 11.14 [Prodotto di distribuzione per funzione] Sia g ∈ C∞ (R) e sia T ∈ D0 (R) allora si
definisce g · T ∈ D0
hg · T, ϕi := hT, g · ϕi , ∀ϕ ∈ D
Osservazione 11.2 Se f e g differiscono solo in un numero finito di punti oppure in un’infinità di punti
numerabile allora Tf = Tg .
Proprietà 11.1 Per la derivata distribuzionale valgono le solite proprietà delle derivate di funzioni reali.
∃f (x− +
k ) = lim− f (x) ∈ R, ∃f (xk ) = lim+ f (x) ∈ R, ∀k ∈ [1, m] ∩ N
x→xk x→xk
allora
m
X
Tf0 = Tf + [f (x+ k
k ) − f (x −)] · δxk
k=1
Definizione 11.16 [Funzione segno] Si definisce la funzione segno, sng, la funzione che vale −1 se x < 0
e 1 se x > 0
−1 x < 0
sng(x) = 0 x=0
1 x>0
sng(0) = 0 per convenzione, dato che nell’ambito delle distribuzioni Tf = Tg se f (x) 6= g(x) solo in un
numero finito di punti.
0 x 6= 0
Osservazione 11.3 Sia f : R → R con f (x) =
+∞ x=0
Z +∞
f (x) · dx = 0 l’integrale è indipendente dal valore della funzione in un punto
−∞
• ϕ ∈ C 1 ([a, b])
• f ∈ C 1 (]a, b[) con f 0 integrabile su (a, b) con f (a+ ),f (b− ) ∈ R (esistono finiti i limiti)
Z b Z b Z b
0 p.p. b− 0 −
f (x) · ϕ (x) · dx = [f (x) · ϕ(x)]a+ − +
f (x) · ϕ(x) · dx = f (b ) · ϕ(b) − f (a ) · ϕ(a) − f 0 (x) · ϕ(x) · x
a a a
11.4. CONVERGENZA DI DISTRIBUZIONI 97
Dimostrazione 11.4 Dimostrazione del teorema 11.1 nel caso di un solo punto di discontinuità di salto,
x1 .
Sia ϕ ∈ D
D E Z +∞ Z x1 Z +∞
0 0 0 p.p.
Tf0 , ϕ = − hTf , ϕ i = − f (x) · ϕ (x) · dx = − f (x) · ϕ (x) · dx − f (x) · ϕ0 (x) · dx =
−∞ Z x1 −∞ x 1 Z +∞
p.p.
= −[f (x− 1 ) · ϕ(x 1 ) − 0] + f 0
(x) · ϕ(x) · dx − [0 − f (x +
1 ) · ϕ(x 1 )] + f 0 (x) · ϕ(x) · dx =
−∞
Z +∞ x 1
− 0 −
[f (x+ +
+ Tf0 , ϕ
1 ) − f (x 1 )] · ϕ(x 1 ) + f (x) · ϕ(x) · dx = [f (x 1 ) − f (x 1 )] hδ x1 , ϕi
−∞
(g · T )0 = g 0 · T + g · T 0
(g · T )0 = g · T 0 + g 0 · T
Osservazione 11.5 Una distribuzione ha infinite derivate, poichè la derivata di una distribuzione è a
sua volta una distribuzione. D E D E
∀p ∈ N, T (p) , ϕ = (−1)p · T, ϕ(p)
98 CAPITOLO 11. DISTRIBUZIONI
λ · Tn + µ · Sn → λ · T + µ · S
Proprietà 11.3 Si definisce supporto di supp(f ) := {x : f (x) 6= 0}. Si può dimostrare che
Nf := unione di tutti gli intervalli aperti in cui f è nulla = ∪{(a, b) : f ((a, b)) = {0}}
supp(f ) = R\Nf
Definizione 11.21 [Supporto di una distribuzione] Si dice che una distribuzione T ∈ D0 è nulla su (a, b)
se
hT, ϕi = 0, ∀ϕ ∈ D con supp(ϕ) ⊆ (a, b)
e si pone
supp(T ) := R\{(a, b) : T è nulla su (a, b)} = R\ ∪ {(a, b) : hT, ϕi = 0, ∀ϕ ∈ D : supp(ϕ) ⊆ (a, b)}
Si dice che T è a supporto compatto se supp(T ) è compatto in R (cioè ha supporto chiuso e limitato).
11.5 Esercizi
Z +∞
Esercizio 11.1 Sia T : D → C definita da hT, ϕi = ex · ϕ(x) · dx dire se T ∈ D0 .
−∞
É una distribuzione poichè ex ∈ R1loc quindi
T = Tf = Tex ∈ D0
Z 1
Esercizio 11.2 Dire se T : D → C definita da hT, ϕi = arctan(x) · ϕ(x) · dx è una distribuzione.
0
T è una distribuzione poichè
Z 1 Z +∞ Z +∞
hT, ϕi = arctan(x) · ϕ(x) · dx = 11[0,1] (x) · arctan(x) · ϕ(x) · dx = f (x) · ϕ(x) · dx
0 −∞ −∞
Z 1
Esercizio 11.4 Dire se T : D → C definita da hT, ϕi = x · ϕ0 (x) · dx è una distribuzione.
0
Z 1 Z 1 Z 1
p.p. 1
hT, ϕi = x · ϕ0 (x) · dt = [x · ϕ(x)]0 − ϕ(x) · dx = ϕ(1) − ϕ(x) · dx =
0 Z +∞ 0 0
= ϕ(1) − 11[0,1] (x) · ϕ(x) · dx = hδ1 , ϕi − T11[0,1] , ϕ = δ1 − T11[0,1] , ϕ
−∞
unif unif
• δx0 sia continua, cioè se ϕn → ϕ ∈ D allora hδx0 , ϕn i → v hδx0 , ϕi
unif
hδx0 , ϕn i = ϕn (x0 ) → ϕ(x0 ) = hδx0 , ϕi
unif
pertanto poichè hδx0 , ϕn i → hδx0 , ϕi allora δx0 ∈ D0
hT, ψi = ||ψ||1 ≤ 0
/ D0 .
Esercizio 11.9 Sia T : D → R definita da hT, ϕi = ||ϕ||2 , verificare che T ∈
hT, ψi = ||ψ||2 ≤ 0
Esercizio 11.10 Sia f : R → C con f ∈ R1loc , sia x0 ∈ R e g(x) = f (x − x0 ), verificare che hTg , ϕi =
hTf , ϕ(x + x0 )i.
Se ϕ ∈ D si ha che
Z +∞ Z +∞ Z +∞
y=x−x0 x=y
hTg , ϕi = f (x−x0 )·ϕ(x)·dx = f (y)·ϕ(y+x0 )·dy = f (x)·ϕ(x+x0 )·dx = hTf , ϕ(x + x0 )i
−∞ −∞ −∞
100 CAPITOLO 11. DISTRIBUZIONI
Esercizio 11.16 Sia f ∈ R1loc (R) : ∃f 0 ∈ R1loc (R) of ∈ C 1 (R), verificare che hTf 0 , ϕi = − hTf , ϕ0 i
Z +∞ Z R
p.p.
hTf 0 , ϕi = f 0 (x) · ϕ(x) · dx = f 0 (x) · ϕ(x) · dx =
−∞ Z R −R Z +∞
p.p. 0
R
= [f (x) · ϕ(x)]−R − f (x) · ϕ (x) · dx = − f (x) · ϕ0 (x) · dx = − hTf , ϕ0 i
−R −∞
Tf0 = TH
D E Z +∞ Z +∞
0 0 0
Tf00 , ϕ = hTH , ϕi = − hTH , ϕ i = − H(x) · ϕ (x) · dx = − ϕ0 (x) · dx =
Z R −∞ 0
0 x∈/ (0, 1)
Esercizio 11.20 Sia f (x) = , determinare Tf0 .
e2·x x ∈ (0, 1)
Poichè f ∈ R1loc e
0 0 x∈/ (0, 1)
∀x 6= {0, 1}, ∃f (x) = ∈ R1loc
2 · e2·x x ∈ (0, 1)
poichè nei punti di discontinuità si hanno discontinuità di salto allora valgono le ipotesi del teorema
pertanto
Tf0 = Tf 0 + [f (0+ ) − f (0− )] · δ0 + [f (1+ ) − f (1− )] · δ1 = T[11[0,1] ·2·e2·x ] + δ0 − e2 · δ1
2
Esercizio 11.21 Calcolare la derivata distribuzionale di T = ex · δ−1 + T[3·sng(−x)] .
Poichè si può facilmente osservare che le ipotesi del teorema sono rispettate allora dato che
0
T[3·sng(x)] = T0 + [3 · sng(0+ ) − 3 · sng(0− )] · δ0 = −6 · δ0
2 2
ex · δ−1 = e(−1) · δ−1 = e · δ−1
0
T 0 = [e · δ−1 − 6 · δ0 ] = e · δ−1
0
− 6 · δ00 = e · δ−1
0
T 0 = e · δ−1
0
calcolare Tf0 .
0 x < −1
∀x ∈ R\−1, 0, ∃f 0 (x) = −3 x ∈ (−1, 0)
3 x>0
calcolare Tf0 .
−4 · x x<0
∀x ∈ R\{1}, ∃f 0 (x) = 0 0≤0<1
4·x x>1
pertanto Tf0 = Tf 0 + 2 · δ1 .
Esercizio 11.27 Sia ϕ ∈ D tale che ϕ0 (0) = −2, calcolare h[sin(x)] · δ000 , ϕi.
h[sin(x)] · δ000 , ϕi = hδ000 , sin(x) · ϕ(x)i = − hδ00 , cos(x) · ϕ(x) + sin(x) · ϕ0 (x)i =
= hδ0 , − sin(x) · ϕ(x) + cos(x) · ϕ0 (x) + cos(x) · ϕ0 (x) + sin(x) · ϕ00 (x)i =
hδ0 , sin(x) · [ϕ00 (x) − ϕ(x)] + 2 · cos(x) · ϕ0 (x)i = 2 · cos(0) · ϕ0 (0) = −4
(
0 |x − 7| ≥ 1
Esercizio 11.28 Sia T = (x3 −12·cos(x))·δ3 (x−4) calcolare hT, ϕi dove ϕ(x) = 1 .
e (x−7)2 −1 |x − 7| < 1
3
3
hT, ϕi = [x − 12 · cos(x)] · δ3 (x − 4), ϕ = [x − 12 · cos(x)] · δ7 , ϕ = [73 − 12 · cos(7)] · ϕ(7) =
= [73 − 12 · cos(7)] · e−1
Esercizio 11.30 Sia f : R\{0} → R definita da f (x) = log |x|, calcolare Tf0 .
f ∈ R1loc , infatti
1 1 1
lim |x| 2 · log |x| = 0 ⇒ |x| 2 · log |x| ≤ 1 ≡ log |x| ≤ 1
x→0
|x| 2
Sia ϕ ∈ D
D E Z +∞ Z −ε Z +∞
Tf0 , ϕ = − hTf , ϕ0 i = − log |x| · ϕ0 (x) · dx = − lim+ log |x| · ϕ0 (x) · dx + log |x| · ϕ0 (x) · dx =
−∞ ε→0 −∞ ε
Z −ε Z +∞
ϕ(x) ϕ(x)
= − lim+ log |ε| · ϕ(−ε) − 0 − · dx + 0 − log |ε| · ϕ(ε) − · dx =
ε→0
−∞ Z −εx Z +∞ ε x
ϕ(x) ϕ(x)
= lim+ log |ε| · (ϕ(ε) − ϕ(−ε)) + · dx + · dx =
ε→0 −∞Z x ε Z x
−ε +∞
ϕ(ε) − ϕ(−ε) ϕ(x) ϕ(x)
= lim+ 2 · ε · log |ε| · + · dx + · dx =
ε→0
Z −ε Z2 ·+∞
ε −∞ x ε x
ϕ(x) ϕ(x)
= lim+ · dx + · dx
ε→0 −∞ x ε x
11.5. ESERCIZI 103
Si pone Z −ε Z +∞
1 ϕ(x) ϕ(x)
v.f. , ϕ := lim+ · dx + · dx
x ε→0 −∞ x ε x
0 1
pertanto Tlog |x| = v.p ∈ D0
x
Esercizio 11.31 Sia T = x2 · T11[−1,1] , calcolare se esiste T 0 .
T 0 = T2·x·11[−1,1] + δ−1 + δ1
Ricorrendo alla formula di Leibniz si ha che
0
T 0 = x2 · T11[−1,1] = 2 · T11[−1,1] + x2 · T110 [−1,1] = 2 · x · T11[−1,1] + x2 · (δ−1 + δ1 ) =
= 2 · x · T11[−1,1] + x2 · δ−1 + x2 · δ1 = 2 · x · T11[−1,1] + δ−1 + δ1
T 0 = 5 · TH + (5 · x + 3) · δ0 = 5 · TH + 3 · δ0
allora
n→+∞
ϕ((−2)3·n · ln(n)) → 0
n→+∞
δ(−2)3·n ·ln(n) → 0
In generale la successione non converge pertanto 6 ∃ lim Tn (si ha convergenza solo per alcune ϕ come
n→+∞
ad esempio ϕ(x) = x2 · 11[−R,R] )
104 CAPITOLO 11. DISTRIBUZIONI
n→+∞
Esercizio 11.39 Sia fn (x) = n · p n1 (x), calcolare se esiste T tale che Tfn → T.
Sia ϕ ∈ D
1 1 1
Z +∞ Z Z Z
2·n 2·n 1 2·n
hTfn , ϕi = fn (x) · ϕ(x) · dx = n · ϕ(x) · dx = n · ϕ(x) · dx = 1 · ϕ(x) · dx = ϕ(xn )
1 1 1
−∞ − 2·n − 2·n n − 2·n
1 1
xn ∈ − ,
2·n 2·n
ma per n → +∞, xn → 0
n→+∞
fn → ϕ(0)
n→+∞
Tfn = Tn·p 1 → δ0 = T
n
n→+∞
Esercizio 11.40 Sia fn (x) = n2 · p n1 (x), calcolare se esiste T tale che Tfn → T.
Sia ϕ ∈ D
1 1 1
Z +∞ Z Z Z
2·n 2·n n 2·n
hTfn , ϕi = fn (x)·ϕ(x)·dx = n2 ·ϕ(x)·dx = n2 · ϕ(x)·dx = 1 · ϕ(x)·dx = n·ϕ(xn )
1 1 1
−∞ − 2·n − 2·n n − 2·n
per n → +∞ (xn → 0)
• n · ϕ(xn ) → 0 se ϕ(xn ) = 0
n→+∞
Esercizio 11.41 Sia fn (x) = sin(n · x), calcolare se esiste T tale che Tfn → T.
Dal grafico in Figura (11.1f) è chiaro che fn non converge a nessuna funzione.
Sia ϕ ∈ D
R R Z R
cos(n · x) cos(n · x) 0
Z
p.p.
hTfn , ϕi = sin(n · x) · ϕ(x) · dx = − · ϕ(x) + · ϕ (x) · dx =
−R n −R −R n
Z R
1
= · cos(n · x) · ϕ0 (x) · dx
n −R
1 Z R 1
Z R
1
Z R
0 0 n→+∞
· cos(n · x) · ϕ (x) · dx ≤ · |cos(n · x)| · |ϕ (x)| · dx ≤ · |ϕ0 (x)| · dx → 0
n −R n −R n −R
Z R
|ϕ0 (x)| · dx ∈ R poichè ϕ ∈ D e quindi a supporto compatto
−R
n→+∞
Tfn → 0
n
X
Esercizio 11.42 (Treno di impulsi) Sia ∀n ∈ N, Tn = δk , calcolare se esiste il lim Tn .
n→+∞
k=−n
Sia ϕ ∈ D * +
n
X n
X n
X
hTn , ϕi = δk , ϕ = hδk , ϕi = ϕ(k)
k=−n k=−n k=−n
+∞
X R
X
δk = δk
k=−∞ k=−R
1
ϕ − n2 − ϕ(0)
− ϕ(0
ϕ 0 1 0 2 n→+∞ 0
= n
1 +2· = ϕ + 2 · ϕ − → ϕ (0) + 2 · ϕ0 (0) = 3 · ϕ0 (0)
n − n2 n n
0
−3 · hδ0 , ϕi
1 2 n→+∞
n · δ0 x − − δ0 x + → −3 · δ00
n n
106 CAPITOLO 11. DISTRIBUZIONI
3.5
1.6
3
1.4
2.5
1.2
2
1 1.5
0.8 1
0.6 0.5
0
0.4
−0.5
0.2
−1
0
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2 −1.5 −1 −0.5 0 0.5 1
(a) Grafico di f (x) dell’esercizio 11.23 (b) Grafico di f (x) dell’esercizio 11.24
8
8
7
7
6
6 5
5 4
4 3
2
3
1
2
0
1
−1
0
−2
−0.5 0 0.5 1 1.5 2 2.5 3 −1 −0.5 0 0.5 1 1.5 2
(c) Grafico di f (x) dell’esercizio 11.25 (d) Grafico di f (x) dell’esercizio 11.26
1 1
sin(x)
0.9 0.8 sin(2 ⋅x)
0.8 sin(5 ⋅x)
0.6
0.7 0.4
0.6 0.2
0.5 0
0.4 −0.2
0.3 −0.4
0.2 −0.6
0.1 −0.8
0 −1
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2 −10 −5 0 5 10
(e) Grafico di f (x) dell’esercizio 11.31 (f) Grafico di f (x) dell’esercizio 11.41
Figura 11.1: Grafici di f (x) degli esercizi 11.23, 11.24, 11.25, 11.26, 11.31, 11.41
107
108 CAPITOLO 12. APPENDICE
Capitolo 12
Appendice
0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.0 0.50000 0.50399 0.50798 0.51197 0.51595 0.51994 0.52392 0.52790 0.53188 0.53586
0.1 0.53983 0.54380 0.54776 0.55172 0.55567 0.55962 0.56356 0.56749 0.57142 0.57535
0.2 0.57926 0.58317 0.58706 0.59095 0.59483 0.59871 0.60257 0.60642 0.61026 0.61409
0.3 0.61791 0.62172 0.62552 0.62930 0.63307 0.63683 0.64058 0.64431 0.64803 0.65173
0.4 0.65542 0.65910 0.66276 0.66640 0.67003 0.67364 0.67724 0.68082 0.68439 0.68793
0.5 0.69146 0.69497 0.69847 0.70194 0.70540 0.70884 0.71226 0.71566 0.71904 0.72240
0.6 0.72575 0.72907 0.73237 0.73565 0.73891 0.74215 0.74537 0.74857 0.75175 0.75490
0.7 0.75804 0.76115 0.76424 0.76730 0.77035 0.77337 0.77637 0.77935 0.78230 0.78524
0.8 0.78814 0.79103 0.79389 0.79673 0.79955 0.80234 0.80511 0.80785 0.81057 0.81327
0.9 0.81594 0.81859 0.82121 0.82381 0.82639 0.82894 0.83147 0.83398 0.83646 0.83891
1.0 0.84134 0.84375 0.84614 0.84850 0.85083 0.85314 0.85543 0.85769 0.85993 0.86214
1.1 0.86433 0.86650 0.86864 0.87076 0.87286 0.87493 0.87698 0.87900 0.88100 0.88298
1.2 0.88493 0.88686 0.88877 0.89065 0.89251 0.89435 0.89617 0.89796 0.89973 0.90147
1.3 0.90320 0.90490 0.90658 0.90824 0.90988 0.91149 0.91309 0.91466 0.91621 0.91774
1.4 0.91924 0.92073 0.92220 0.92364 0.92507 0.92647 0.92785 0.92922 0.93056 0.93189
1.5 0.93319 0.93448 0.93574 0.93699 0.93822 0.93943 0.94062 0.94179 0.94295 0.94408
1.6 0.94520 0.94630 0.94738 0.94845 0.94950 0.95053 0.95154 0.95254 0.95352 0.95449
1.7 0.95543 0.95637 0.95728 0.95818 0.95907 0.95994 0.96080 0.96164 0.96246 0.96327
1.8 0.96407 0.96485 0.96562 0.96638 0.96712 0.96784 0.96856 0.96926 0.96995 0.97062
1.9 0.97128 0.97193 0.97257 0.97320 0.97381 0.97441 0.97500 0.97558 0.97615 0.97670
2.0 0.97725 0.97778 0.97831 0.97882 0.97932 0.97982 0.98030 0.98077 0.98124 0.98169
2.1 0.98214 0.98257 0.98300 0.98341 0.98382 0.98422 0.98461 0.98500 0.98537 0.98574
2.2 0.98610 0.98645 0.98679 0.98713 0.98745 0.98778 0.98809 0.98840 0.98870 0.98899
2.3 0.98928 0.98956 0.98983 0.99010 0.99036 0.99061 0.99086 0.99111 0.99134 0.99158
2.4 0.99180 0.99202 0.99224 0.99245 0.99266 0.99286 0.99305 0.99324 0.99343 0.99361
2.5 0.99379 0.99396 0.99413 0.99430 0.99446 0.99461 0.99477 0.99492 0.99506 0.99520
2.6 0.99534 0.99547 0.99560 0.99573 0.99585 0.99597 0.99609 0.99621 0.99632 0.99643
2.7 0.99653 0.99664 0.99674 0.99683 0.99693 0.99702 0.99711 0.99720 0.99728 0.99736
2.8 0.99744 0.99752 0.99760 0.99767 0.99774 0.99781 0.99788 0.99795 0.99801 0.99807
2.9 0.99813 0.99819 0.99825 0.99831 0.99836 0.99841 0.99846 0.99851 0.99856 0.99861
3.0 0.99865 0.99869 0.99874 0.99878 0.99882 0.99886 0.99889 0.99893 0.99897 0.99900
3.1 0.99903 0.99906 0.99910 0.99913 0.99916 0.99918 0.99921 0.99924 0.99926 0.99929
3.2 0.99931 0.99934 0.99936 0.99938 0.99940 0.99942 0.99944 0.99946 0.99948 0.99950
3.3 0.99952 0.99953 0.99955 0.99957 0.99958 0.99960 0.99961 0.99962 0.99964 0.99965
3.4 0.99966 0.99968 0.99969 0.99970 0.99971 0.99972 0.99973 0.99974 0.99975 0.99976
3.5 0.99977 0.99978 0.99978 0.99979 0.99980 0.99981 0.99981 0.99982 0.99983 0.99983
3.6 0.99984 0.99985 0.99985 0.99986 0.99986 0.99987 0.99987 0.99988 0.99988 0.99989
3.7 0.99989 0.99990 0.99990 0.99990 0.99991 0.99991 0.99992 0.99992 0.99992 0.99992
3.8 0.99993 0.99993 0.99993 0.99994 0.99994 0.99994 0.99994 0.99995 0.99995 0.99995
3.9 0.99995 0.99995 0.99996 0.99996 0.99996 0.99996 0.99996 0.99996 0.99997 0.99997
4.0 0.99997 0.99997 0.99997 0.99997 0.99997 0.99997 0.99998 0.99998 0.99998 0.99998
4.1 0.99998 0.99998 0.99998 0.99998 0.99998 0.99998 0.99998 0.99998 0.99999 0.99999
4.2 0.99999 0.99999 0.99999 0.99999 0.99999 0.99999 0.99999 0.99999 0.99999 0.99999
4.3 0.99999 0.99999 0.99999 0.99999 0.99999 0.99999 0.99999 0.99999 0.99999 0.99999
4.4 0.99999 0.99999 1.00000 1.00000 1.00000 1.00000 1.00000 1.00000 1.00000 1.00000
Tabella 12.1: Funzione di distribuzione Φ di X ∼ N (0, 1) con precisione 10−5 e passo di 0.01
109
clc
2 clear all
file = fopen ( ’ distNormale . tex ’ , ’w ’) ;
4 file = 1;
min = 0;
6 max = 4.4;
step_c = 0.1;
8 c if r e _s ignificative =5;
fx = inline ( ’ 1/ sqrt (2* pi ) .* exp ( - x .^2/2) ’) ;
10 c = min : step_c : max ;
r = 0: step_c /10: step_c - step_c /10;
12 fprintf ( file , ’ \\ begin { tabular }{ r ’) ;
for indice = 1: length ( r )
14 fprintf ( file , ’| r ’) ;
end
16 fprintf ( file , ’} ’) ;
for indice = 1: length ( r )
18 fprintf ( file , ’ & %.* f ’ , - log10 ( step_c /10) , r ( indice ) ) ;
end
20 fprintf ( file , ’ \\\\\ n \\ hline \\\\\ n ’) ;
for indice = 1: length ( c )
22 fprintf ( file , ’ %.* f ’ , - log10 ( step_c ) , c ( indice ) ) ;
for indice1 = 1: length ( r )
24 fprintf ( file , ’ & %.* f ’ , cifre_significative , quadl ( fx , -10 , c ( indice ) + r
( indice1 ) , 10^( - cifre_significative ) ) ) ;
end
26 fprintf ( file , ’ \\\\\ n ’) ;
end
28 fprintf ( file , ’ \\ end { tabular }\ n ’) ;
fclose ( file ) ;
Tabulazione della funzione di distribuzione di una normale standardizzata