P. 1
wilczek .Elementy.rachunku.prawdopodobienstwa.i.statystyki.matematycznej

wilczek .Elementy.rachunku.prawdopodobienstwa.i.statystyki.matematycznej

|Views: 697|Likes:
Published by kamiliusthegrejt

More info:

Published by: kamiliusthegrejt on Oct 26, 2010
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

05/19/2011

pdf

text

original

......

Q,)

._

~

tJ)

3: o N tJ) Q,)

3: N ~O 0:::

CO ...... _

~C~ ~Q,)._

..... "'CC CO:::l.J:

E ..... (.) Q,)tJ)~

..... ._

Jan Stankiewicz Katarzyna Wilczek

Elementy rachunku prawdopodobienstwa i statystyki matematycznej

Teoria, przyklady, zadania

Matematyka dla studentow Politechniki Rzeszowskiej

Wydano za zgoda Rektora

Opiniodawca

prof. dr hab. Jerzy TOCKI

Redaktor Genowefa SPOLNIK

Redaktor techniczny Anna MAZUR

Autor logo na okladce Stanislawa DUDA

Druk wykonano z matryc dostarczonych przez autorow

Skrypt uczelniany dla student6w Wydzialu Budowy Maszyn i Lotnictwa do wykladow z przedmiotu "matematyka"

Prawdopodobienstwo Teoria korelacji Statystyka Weryfikacja hipote:

Tablice statystyczne

ISBN 83-7199-146-0

Oficyna Wydawnicza Politechniki Rzeszowskiej ul. W. Pola 2,35-959 Rzeszow

Naklad 400 + 35 egz. Ark. wyd. 10,1. Ark. druk. 9,5. Papier offset. kl. III 70g Bl.

Oddano do druku w Iipcu 2000 r. Wydrukowano w sierpniu 2000 r.

Zaklad Poligrafii Politechniki Rzeszowskiej im. Ignacego Lukasiewicza, ul. W. Pola 2,35-959 Rzeszow Zam. nr 44/2000

Spis t resci

Wst~p

1 Prawdopodobieiistwo

1.1 Definicja i podstawowe wlasnosci prawdopodobieristwa 1.2 Prawdopodobiefistwo warunkowe i calkowite .

1.3 Schemat Bernoulliego ....

1.4 Zmienne losowe i ich rozklady .

Zmienne typu skokowego . Zmienne typu claglego . . . . . Zmienne typu mieszanego . . .

1.5 Niezaleznosc zmiennych losowych

1.6 Parametry rozkladu zmiennej losowej . .. . . . . . . . 1. 7 Przyklady najczesciej stosowanych rozklad6w i ich parametry

Rozklad zero-jedynkowy . . . . . . . . . . . . . . . . . . . . . Rozklad r6wnomierny skokowy . . . . . . . . . . .

Rozklad r6wnomierny ciagly (rozklad jednostajny)

Rozklad liniowy. . . . . . . . . . . . . . . . . . . .

Rozklad normalny ..

Rozklad Bernoulliego .

Rozklad Poissona . . .

Rozklad wykladniczy .

Rozklad X2 (chi kwadrat)

Rozklad t Studenta. . . .

........

1.8 Mo~~nty dwuwymiarowej zmiennej losowej, wsp6lczynnik ko-

relacji .

1.9 Funkcja charakterystyczna . . . . . . . . .

Zastosowania funkcji charakterystycznych 1.10 Prawa wielkich liczb ..

1.11 Twierdzenia centralne .

1.12 Elementy teorii korelacji

3

7

9 9 14 17 21 24 26 28 29 34 40 41 41 41 41 42 43 44 45 45 46

47 50 52 54 56 59

4

5

Regresja typu pierwszego Regresja typu drugiego . . W spolczynnik korelacji . .

Szacowanie parametrow prostej regresji

59 61 64 65

Tablica 5.6 K wantyle rozkladu t Student a . Tablica 5.7 Kwantyle rozkladu X2 •••••• Tablica 5.8 Podstawowe przedzialy ufnosci . Podstawowe pojecia kombinatoryki .....

139 141 143 144

2 Statystyka 67

2.1 Elementy statystyki opisowej 67

Szeregi rozdzielcze 68

Licz by charakteryzujace szereg rozdzielczy 69

Elementy teorii prob, pojecie proby . 71

Przedzial i poziom ufnosci 72

2.2 Badania statystyczne . . . . . . . . 76

Estymacja punktowa . . . . . . . . 76

Metody wyznaczania estymatorow 79

Przeglad podstawowych estymatorow . 83

Estymacja przedzialowa . . . . . . . . 83

2.3 Weryfikacja hipotez . . . . . . . . . . . 85

2.4 Weryfikacja hipotez dotyczacych wartosci przecietnej 91

Modell - przy znanej wariancji (12 . • . . • • . • • . 91

Model 2 - przy nieznanej wariancji (12 • . • • . • • . 93

Model 3 - przy nieznanej wariancji (12 i duzej liczebnosci proby n 95

2.5 Testy istotnosci dla wariancji .,. . . . . . . 96

Model 1 - przy dowolnej liczebnosci proby n . 96

Model 2 - przy przy liczebnosci proby n ~ 50 98

Model 3 - przy liczebnosci proby n ~ 100 . . 99

2.6 Weryfikacja hipotezy a rownosci wartosci przecietnych badanej

cechy. . . . . . . . . . . . . . . . . . . . . . . . 99

Model 1 - przy znanych wariancjach (1f, (1~ . • 99

Model 2 - przy nieznanych wariancjach (1f, (1~ • 101

2.7 Zasada najmniejszej sumy kwadratow ..... 102

Literatura

145

Skorowidz terrninow

147

3 Zadania

107

4 Odpowiedzi i rozwiasania

121

5 Tablice statystyczne

Tablica 5.1 Wartosci funkcji wykladniczej f( x) = e-x Tablica 5.2 Niektore rozklady prawdopodobienstwa . Tablica 5.3 Rozklad Poissona . . . . . . . .

Tablica 5.4 Rozklad normalny . . . . . . . .

Tablica 5.5 Kwantyle rozkladu normalnego

133 133 134 135 138 139

Wstep

W przedstawionej czytelnikom ksiazce s~ omawiane podstawowe wlasnosci prawdopodobieristwa zdarzeri losowych, prawdopodobienstwo warunkowe, twierdzenia 0 prawdopodobieiistwie calkowitym oraz schemat Bernoulliego. N astepnie s~ wprowadzone pojecia zmiennej losowej i jej rozkladu. Zaprezentowane s~ przyklady rozkladow zmiennej oraz podstawowe parametry rozkladu: wartosc przecietna, wariancja oraz momenty wyiszych rzedow. Omawia si~ zagadnienia zaleznosci i korelacji zmiennych losowych, prawa wielkich liczb oraz twierdzenia centralne.

W drugiej czesci, poswieconej statystyce matematycznej, s~ omawiane badania statystyczne, stawianie i weryfikowanie hipotez statystycznych roznych typow. Podane s~ wybrane testy statystyczne, ana zakoriczenie jest prezentowana metoda najmniejszych kwadratow.

Materialy te zostaly opracowane na podstawie wykladow i cwiczen , jakie prowadzilismy w Politechnice Rzeszowskiej na Wydziale Budowy Maszyn i Lotnictwa oraz Wydziale Elektrycznym w okresie 1982-1999. Nie stanowia one pelnego wykladu Rachunku Prawdopodobieristwa i Statystyki Matematycznej a jedynie, zgodnie z tytulem, wybrane elementy. Zostaly one tak wybrane, aby stanowily pewna calosc mozliwa do opanowania w czasie przewidzianym programem nauczania matematyki i, naszym zdaniem, potrzebna studentom studiow technicznych do dalszego ksztalcenia.

Oddajemy do rak czytelnikow t~ ksi~ik~ majac nadzieje, ie spelnia one nastepujace warunki:

a) prezentuje material mozliwy do opanowania przez studentow drugiego roku studiow technicznych,

b) zawiera tylko konieczny material, bez zbytniego rozwijania go do pelnej, lecz zbyt obszernej teorii.

7

8

_--------------------Wst~p

. . . e na rynku podrpcznikow akademickich brak jest

Odnosimy wrazeme, Z"l: •

zwi~zlego opracowania prezentowanych przez nas zagadnien, opracowallla,

ktore spelnialoby te warunki. ikli

Dzi~kujemy recenzentowi Panu dr. hab. Jerzemu Tockie~u .za wru IW~

uwagi merytoryczne oraz Pani redaktor mg.r Ge~owefie Spoln~k ": uw~g~ stylistyczno-redakcyjne. Przyczynily si~ one istotnie do poprawlellla jakosci

wydania. ike kt ' ll:

B~dziemy wdzieczni za wszelkie uwagi i sugestie.czytellll ow, ore nasun _

si~ im w trakcie korzystania z niniejszego podr~czlllka. Zostana one wykorzy stane przy, ewentualnym, kolejnym wydaniu.

Rozdziall

Prawdopodo bieristwo

1.1 Definicja i podstawowe wlasnosci prawdopodobienstwa

Jan Stankiewicz, Katarzyna Wilczek Katedra Afatefinatyki

Politechniki Rzeszowskiej

e-mail: jan.stankieviczGman.rzeszov.pl e_mail:vilczekGman.rzeszov.pl

W rachunku prawdopodobieristwa podstawowe jest pojecie zdarzenia - zdarzenia losowego. Zdarzenie Iaczymy zazwyczaj z wynikiem pewnej obserwacji lub doswiadczenia. Wynik ten moze bye ilosciowy lub jakosciowy (otrzymanie "czworki" podczas rzutu kostka, wylosowanie "czerwonej" kuli z urny czy asa z talii kart). Wsrod zdarzeri wyrozniamy takie, ktorych nie da si~ rozlozyc na zdarzenia prostsze. Takie zdarzenia Sll: nazywane zdarzeniami elementarnymi. Na przyklad otrzymanie "liczby parzystej" jest zdarzeniem losowym, ale nie jest zdarzeniem elementarnym, gdyz moze bye zrealizowane przez otrzymanie na kostce "dwojki", "czworki" lub "szostki". Te trzy ostatnie sll: zdarzeniami elementarnymi.

Przy rzucie klasyczna kostka mamy szese zdarzeri elementarnych ell e2, ... , e6, polegajacych na otrzymaniu jednej z liczb naturalnych 1, 2, 3, 4, 5, 6.

Zbior wszystkich mozliwych zdarzeii elementarnych w danym doswiadczeniu lub obserwacji nazywamy przestrzenia zdarzefi elementarnych, w skrocie PZE. Jest ona zwykle oznaczana przez n, a jej elementy litera e z indeksem jako ek. W przypadku rzutu kostka szescienna

Podzbiory przestrzeni n Sll: zdarzeniami losowymi (ZL) lub krotko zdarzeniami i Sll: oznaczane poczatkowymi literami alfabetu A, B, ...

Gdy przestrzeii n rna skoriczona lub przeliczalna licz b~ elementow, wowczas kazdy podzbior zbioru n jest zdarzeniem losowym. Tak nie musi bye, gdy zbior n nie jest przeliczalny.

9

10

_------------------- 1. Prawdopodobienstwo

Przed wprowadzeniern pojecia prawdopodobienstwa potrzebne nam b~d,!:

pewne pojecia. _. .

Zdarzeniem przeciwnym A do zdarzenia A nazywarny zdarzenie pole-

gaj,!:ce na tyrn, ze nie zachodzi zdarzenie A.

A:= n \A.

Zdarzeniem pewnym nazywarny zdarzenie, ktore zawiera wszystkie ele-

rnenty PZE (ktore rnusi sie zdarzyc). Ozn~cza~y go .przez. ,~. .

Zdarzenie niemozliwe to takie, ktore me rnoze zajsc. Odpowiada rnu

zbior pusty 0. Oznaczarny go wiec przez 0. .

Suma alba alternatywa zdarzefi A i B nazywarny zdar~eme o.dpowiadajace surnie AU B zbiorow. Podobnie okreslamy sume skonczonej lub

przeliczalnej liczby zdarzefi

n

Al U A2 ... U An = U Akl k=l

00

Al U A2 ... = U Ak. k=l

Iloczynem zdarzefi A i B nazywarny zdarzenie polegaj,!:ce na jednoczesnyrn zajsciu obu zdarzeri i oznaczarny

AnB.

Dla wiekszej liczby zdarzeri

n

Al n A2 ... n An = n Ak, k=l

00

Al n A2 ... = n Ak. k=l

Zdarzenia Ai B nazywarny wykluczajll,cymi sie, jeieli ich iloczyn jest zdarzeniern niernoiliwyrn, to znaczy wtedy, gdy

AnB = 0.

Wiadomo ze realizacja zdarzen losowych jest rozna. N a przyklad: wyrzucenie kostk'!: liczby parzystej jest trzy razy bardzej "~rawdo~~do~~e" n~z wyrzucenie "dwojki". Dlatego wprowadza si~ liczbowa miare rnozliwosCl realizacji zdarzenia losowego, przypisujaca zdarzeniu A pewna liczbe peA), zwana prawdopodobienstwern zdarzenia A.

1.1. Definicja i podstawowe wlasnosci ...

11

Jest wiele roznych definicji prawdopodobieristwa. Jedna z nich jest tak zwana klasyczna definicja pochodzaca od P.S. Laplace'a, wielkiego francuskiego uczonego, iyj,!:cego w latach 1749-1827. Definicja ta odnosi si~ do sytuacji, gdy PZE rna skoriczona liczbe zdarzeri elernentarnych.

Definicja 1.1 (Klasyczna definicja prawdopodobieristwa) Niech przestrzeti zdarzeti elementarnych n sklada sie ze skoticzonej liczby zdarzeti elementarnych i zajScie kaidego z nich jest jednakowo moiliwe. Jeieli n(A) jest liczbq zdarzeti elementarnych sprzyjajqcych zdarzeniu A (naleiqcych do A) i n(n) jest liczbc wszystkich zdarzeti elementarnych, to prauulopodobietistuiem zdarzenia A nazywamy liczbe

peA) = :~~~.

Przyklad 1.1 Obliczyc prosndopodobietistuio wyciqgni~cia kuli bialej z urny zawierajqcej 10 kul bialych, 15 kul czarnych i 5 kul czerwonych.

Rozwiazanie, PZE rna w tyrn przypadku 30 element ow bedacych zdarzeniami elementarnymi. Zdarzeniu B polegajacemu na wyciagnieciu kuli bialej sprzyja 10 zdarzeri elernentarnych, gdyi w urnie jest 10 kul bialych. Zatern n(n) = 30, nCB) = 10 i stad

PCB) = 10 = ~

30 3'

Z klasycznej definicji prawdopodobieristwa, przy ustalonej PZE, wynikaja nastepujace wlasnosci prawdopodobieristwa - funkcji okreslonej na zdarzeniach - podzbiorach przestrzeni n.

Wlasnosc 1 Prawdopodobieristwo przyjrnuje wartosci nie rnniejsze od zera i nie wieksze od jednosci:

o s peA) ~ 1.

Wlasnosc 2 Prawdopodobieiistwo zdarzenia pewnego A = n jest rowne jednosci:

pen) = 1.

Wlasnosc 3 Prawdopodobieristwo zdarzenia niemozliwego A = 0 jest rowne zeru:

P(0) = o.

Wlasnosc 4 Prawdopodobiefistwo zdarzenia A przeciwnego do A jest rowne roznicy prawdopodobieristwa zdarzenia pewnego i danego zdarzenia, to znaczy:

peA) = 1 - peA)

12

___________________ 1. Prawdopodobienstwo

lub inaczej

peA) + peA) = 1.

Wlasnosc 5 Jeieli Ai B SCl: zdarzeniami rozlacznymi, to prawdopodobieiistwo sumy A U B jest rowne sumie prawdopodobieiistw:

peA U B) = peA) + PCB), jeieli An B = 0.

Przytoczona tutaj klasyczna definicja prawdopodobieiistwa rna pewne mankamenty. Jest oparta na pojeciu zdarzeii elementarnych "jednakowo moiliwych", to jest zawiera "bkdne kolo" w definiowaniu i dotyczy tylko przypadku,

gdy zdarzen tych jest skonczona liczba. . .

Proba usuniecia niektorych wad klasycznej definicji),est tak zw~na ?,efilllCJa geometryczna, oparta na pojeciu miary zbioru (dlugosc, pole, objetosc).

Definicja 1.2 (Geometryczna definicja prawdopodobieiistwa) Niech G bedzie ustalonym zbiorem (jednowymiarowym, plaskim, przest~zennym) .0 zadanej mierze meG). Niech g c G ma miare meg). Zakladamy, ze v:ybrante kaidego punktu ze zbioru G [est jednakowo moiliwe. Niech zdarzem~ ~ polega na tym, ie wybrany losowo punkt naleiy do zbioru g. Prawdopodobzenstwo zdarzenia A definiujemy nastepujqco:

meg) peA) = meG)"

Definicja geometryczna pozwala na rozpatrzenie przypadku nieskoiiczonej, nieprzeliczalnej liczby zdarzen elementarnych. Jest ona jednak trudna do zastosowania i nie usuwa dalej pojecia "jednakowo prawdopodobne".

Dlatego zostala wprowadzona trzecia definicja pochodz~c.a od ~.N. Kohnogorowa (matematyk rosyjski, 1903-1987) i nazywana definicja aksjomatyczna,

Definicja 1.3 (Aksjomatyczna definicja prawdopodobieiistwa) Pojeciem pierwotnym jest pojecie przestrzeni zdarzeii elementarnych n. Nasiepnie zostaje wyroiniona pewna rodzina S podzbiorou: przestrzeni n, nazywana a-cialem i spelnia}qca warunki:

20 A E S =} A = n \ A E S,

30 Ak E S, k = 1,2, ... =} Uf:l Ak E S .

{suma skoticzotiej lub przeliczalnej rodziny zbiorow rodziny S nalezy do tej rodziny S),

1.1. Definicja i podstawowe wlasnosci '"

13

40 Ak E S, k = 1,2, ... =} nk:l Ak E S

(iloczyn skonczonej lub przeliczalnej rodziny zbioroui rodziny S naleiy do tej rodziny S).

Rodzina S spelniajqca te warunki stanowi a-cialo, nazywamy jq zbiorem zdarzeii Iosowych, a elementy zbioru S zdarzeniami Iosowymi.

Pra,wdopodobienstwem P nazywamy kaidq /unkch okreslonq na zbiorze S zdarzen losowych spelniajqcq nostepujqce trzy warunki, nazywane aksjomatami prawdopodobienstwa.

Aksjomat I. Kaidemu zdarzeniu losowemu A E S jest przyporzCl:dkowana dokladnie jedna liczba peA) E (0,1), nazywana prawdopodobienstwem zdarzenia A.

Aksjomat II. Prawdopodobienstwo zdarzenia pewnego jest rowne jednosci:

pen) = 1.

Aksjomat III. Prawdopodobienstwo sumy skoriczonsj lub przeliczalnej liczby zdarzeii AI, A2, •.. p:l ' si~ wyklu/;.\,jCl:cych rowna si~ surnie prawdopodobieristw poszczegolnych zdarzeri:

peAl U A2 u ... ) = peAt) + P(A2) + ... gdy Ak n Aj = 0 dla k =f- i .

Aksjomaty te j akiego rodzaju funkcje moina nazwac

prawdopodobiellstwem, wartosci zas liczbowe ustala si~ w poszczegolnych przy~adkach stosownie do rozpatrywanego zagadnienia. Definicja ta jest formalnie poprawna, jest jednak dose trudna do przeloienia na jezyk praktyczny.

. .~a.two s~rawdzic, ie funkcje peA), ok res lone zarowno w klasycznej defimcji, jak tez w geometrycznej definicji, spelniaja Aksjomaty I-III, a wiec sCl: prawdopodobienstwami w mysl aksjomatycznej definicji prawdopodobienstwa.

WykorzystujCl:c definicje aksjomatycznCl: prawdopodobienstwa, moina wykazac nast~pujCl:ce twierdzenia.

Twierdzenie 1.1 P(0) = O.

Dow6d. 0 n n = 0 i dlatego na mocy Aksjomatow III i II mamy

1 = pen) = P(0 U n) = P(0) + pen) = P(0) + 1.

Stad P(0) = O.

Twierdzenie 1.2 peA) = 1 - peA).

14 _----------------1. Prawdopodobienstwo Dow6d. n = AU A, An·· i: = 0. St~d

1 = pen) = P(ll U A) = peA) + peA),

co daje potrzebna rownosc.

Twierdzenie 1.3 peA U B) = peA) + PCB) - peA n B).

Dow6d. Ze znanych wlasnosci dzialafi na zbiorach mamy

AU B = Au (B \ (A n B)), An (B \ (A n B)) = 0,

B = (A n B) U (B \ (A n B)), (A n B) tl (B \ (A n B)) = 0.

Zatem z Aksjomatu III mamy

peA U B) = peA) + PCB \ (A n B)), PCB) = peA n B) + PCB \ (A n B)).

Odejmuj,!:c stronami, otrzymujemy potrzebna rownosc.

Twierdzenie 1.4 Iezeli A c B, to peA) ~ PCB).

Dow6d. B = AU (B \ A) i na mocy Aksjomatu III mamy

PCB) = peA) + PCB \ A) 2: peA),

gdyi PCB \ A) 2: o.

1.2 Prawdopodobienstwo warunkowe i calkowite

Rozwaimy dwa zdarzenia losowe A i B, PCB) > O.

Definicja 1.4 Prawdopodobieristwem zajScia zdarzenia A pod warunkiem zajscia zdarzenia B (oznaczane symbolem P(AIB)) nazywamy liczbf(

p(AnB) p(AIB) = PCB) .

ticzba peAlE) jest istotnie prawdopodobienstwem (spelnia aksjomaty) i nazywamy j~ prawdopodobienstwem warunkowym. Rzeczywiscie

1.2. Prawdopodobieristwo warunkowe i calkowite _

----------------

15

Dla kazdego zdarzenia A mamy A nBc B i dlatego 0::; peA n B) ::; PCB).

St~d

0< peA n B)

- PCB) ::; 1

i w konsekwencji 0 ~ P(AIB) = P~A(~B» ::; 1. Zatem P(AIB) spelnia Aksjomat I.

20 p(nIB) = pen n B) = PCB) _

. PCB) PCB) - 1.

Jest Wl~C spelniony Aksjomat II.

3° Jezeli AI, A2, ... , s,!: parami roslaczne, to rowniez zbiory A nB A n B

S,!: par ami rozlaczne i dlatego I ,2 , ...

peAl U A2 U ... IB) = P«AI U A2 ... ) n B) _

PCB) -

p(AlnB)U(A2nB)U ... ) = p(AlnB) p(A2nB)

PCB) PCB) + PCB) + ... =

P(AIIB) + P(A2IB) + ...

Jest zatem spelniony rowniez Aksjomat III.

Definicja 1.5 M6wimy, ie zdarzenia A i B s~ niezalesne jeieli PCB) - 0

lub PCB) :f; 0 i P(AIB) = peA). ,-

Je~el~ peA) > 0, to rowniez P(BIA) = PCB).

Jezeb zdarzenia A i B nie S'l: niezalezne to mowimy ze s I'

I . I' " '!: za ezne.

nnymi s owy, AlB s,!: niezalezne, gdy

peA n B) = P(A)P(B).

Uiywaj'!:: ostat.ni.ej rownoscl, mozemy definicje niezaleznosci rozszerzyc na przypadek wiekszej liczby zdarzeri.

Definicja 16M'· . d .

d I : owzmy, ze z arzenza AI, A2, ,An sq niezaleine, jeieli dla

owo nego ctqqu iI, i2, ... , i», 1 ~ il ::; i2 ~ ::; ik ::; n ma miejsce rOwnosc

P(Ail n Ai2 n ... Aik) = P(Ail)· P(Ai2)····· P(Aik)·

Zatem dniesieni d

. w,o niesiemu 0 zdarzefi niezaleznych prawdopodobieristwo ich ilo-

czynu Jest rowne iloczynowi prawdopodobieiistw

Dla iloczynu dowolnych zdarzeri mamy .

16

1. Prawdopodobiellstwo

-----------------------------

Twierdzenie 1.5 Niech A, B b~dq dowolnymi zdarzeniami losowymi. Wtedy:

peA n B) peA n B) peA n B)

= peA) + PCB) - peA U B), P(A)P(BIA), gdyP(A) > 0, = P(B)P(AIB), gdyP(B) > 0

oraz ogolniej

P(AlnA2n ... nAn)=

= P(AI)P(A2IAt}P(A3IAI U A2) ... P(AnIAI U ..• U An-d·

Definicja 1.7 Mowimy, ie uklad zdarzeti losowych AI, A2,··· jest zupelny, jeieli zdarzenia te sq pammi wykluczajqce si~ (rozlqczne), a ich suma jest zdarzeniem pewnym, to znaczy gdy

Ak n Al = 0 dla k :II,

U Ak n.

k=l

Uklad zupelny jest wykorzystywany do wyznaczania w pewnych przypadkach prawdopodobienstwa danego zdarzenia, gdy znamy prawdopodobienstwa zdarzeri Ak ukladu zupelnego oraz prawdopodobienstwa zdarzeti warunko-

wych.

Twierdzenie 1.6 (Twierdzenie 0 prawdopodobienstwie calkowitym) Jeieli AI, A2, ... jest ukladem zupelnym zdarzeti losowych i peAk) > 0, k = 1,2, ... , to dla dowolnego zdarzenia losowego B zachodzi rOwnosc

00

PCB) = E P(Ak)P(BIAk).

k=l Dow6d. Z zupelnosci ukladu wynika, ze

Ale Bk = B n Ak s~ parami rozlaczne i dlatego

PCB) = P (U(B n Ak») = E PCB n Ak) = E P(Ak)P(BIAk),

k k k

co koiiczy dowod.

Wzor ten nosi nazwe wzoru na prawdopodobienstwo calkowite.

1.3. Schemat Bernoulliego _

17

N astepne twierdzenie podaje wzor na prawdopodobieristwo warunkowe poszczeg6lnych zdarzen Ak ukladu zupelnego zdarzen. W tych i w nastepnych wzorach symbole Uk> Lk oznaczaja odpowiednio Uk=l' Lk=l' gdy uklad jest przeliczalny, oraz Uk=l, Lk=l, gdy uklad zupelny rna skoiiczona liczbe elementow.

Twierdzenie 1.7 (Twierdzenie Bayesa) Jeieli PCB) > 0 oraz AI, A2, ... jest ukladem zupelnym zdarzeti losowych, peAk) > 0, k = 1,2, ... , to zachodzi wzor

Bi

"

(-

nazywany wzorem Bayesa na prauidopodobietistuio warunkowe a posteriori.

Dow6d. Ze wzoru na prawdopodobieiistwo warunkowe oraz z Twierdzenia 0 prawdopodobieristwie calkowitym mamy

co koriczy dowod.

Przyklad 1.2 Mamy n urn do losowania wypelnionych kulami bialymi i czarnymi. Prauidopodobietistuio wylosowania kuli bialej z k-tej urny jest roume Pk, a prauidopodobietisiuio wylosowania k-tej urny wynosi ak > 0, k = 1,2 ... , n. Wyznaczyc prauxiopodobietistuio tego, ze wylosowana biala kula pochodzi z k-tej urny.

Rozwiazanie. Niech Ak bedzie zdarzeniem polegajacym na wylosowaniu k-tej urny i niech B bedzie zdarzeniem polegajacym na wylosowaniu bialej kuli. Widzimy, ze At, A2, ... , An tworza zupelny uklad zdarzeri. Wiemy tei, ze peAk) = ak, P(BIAk) = Pk· Zatem prawdopodobieristwo zdarzenia AkIB, a wiec ze wylosowano biala kule z k- tej urny, wyznaczamy ze wzoru Bayesa

1.3 Schemat Bernoulliego

Om6wimy teraz pewien schemat doswiadczenia losowego polegajacego na wielokrotnym powtarzaniu tego samego doswiadczenia losowego. Pojedyncze doswiadczenie polega na tym, ze moga zajsc jedynie zdarzenia A lub A. Innymi slowy, gdy zbior zdarzefi losowych sklada sie ze zdarzeri 0, A, A, n i

18

_______ " 1. Prawdopodobienstwo

peA) = p E (0,1) oraz peA) = q = 1 - P E (0,1). Zakladamy, ze wyniki

kolejnych prob slt zdarzeniarni niezaleznymi. . .

Taki schemat moze bye na przyklad realizowany jako losowanie kuli z urny ze zwracaniem po kaidym losowaniu danej kuli do urny. Zdarzenie A polegaloby na wylosowaniu kuli bialej, a A na wylosowaniu kuli, ktora nie jest

biala. .

Zatem powtarzamy n-krotnie dane doswiadczenie i c~cemy wyz~aczy:

prawdopodobienstwo, ze dokladnie k razy bedzie zachodzilo :d~rzellle A 1 dokladnie n - k razy zdarzenie A. Oznaczrny to prawdopodobienstwo przez Pn(k). Omowione doswiadczenie moze bye realizowane na wiele sposobow, n~ przyklad przez k poczatkowych losowan otrzymujem!' A, p.rzez pozost~le :~s _ zdarzenie A. Sposobow tych jest tyle, na ile sposobow mozemy wybrac zbior k-elementowy ze zbioru n elementowego, a wiec jest ich

n! (k+l)(k+2) ... n_

k!(n-k)! - 1·2· ... ·(n-k) -

(n-k+l)(n-k+2) ... n

1· 2· ... · k

Prawdopodobienstwo zajscia kazdego takiego sposobu jest takie samo i jest rowne iloczynowi

peA) . P(A) ... P(A)· P(A) . P(A) ... peA) = l· qn-k = pk . (1- pr-k.

'-------;-----~

k (n-k)

Jezeli prawdopodobienstwo zajscia zdarzenia A nazwiemy sukcesem, a zdarzenia A porazlGt, to prawdopodobienstwo P n (k) osiagniecia dokladnie k sukcesow w n probach wyraza sie wzorem

Wzor ten nosi nazwe wzoru Bernoulliego. (Jakub Bernoulli, matematyk i fizyk Szwajcarski, 1654-1705, ponadto brat Johan, 1667-1748, oraz syn Jakuba Daniel, 1700-1782.)

N a mocy wzoru N ewtona mamy

t Pn{k) = i: (~)pkqn-k = (p + qt = In = 1.

k=O k=O

Wzor Bernoulliego daje mozllwosc wyznaczania roznych innych zdarzen zwiazanych ze schematem Bernoulliego.

1.3. Schemat Bernoulliego _

19

PrzykJad 1.3 Pol6imy n = 6, P = 1/3, q = 2/3. Obliczyc prauxlopodobieiistwo, ie uzyskamy nie uiiecej nii trzy sukcesy.

Rozwiazanie. Prawdopodobieiistwo uzyskania w szesciu probach nie wiecej niz trzech sukcesow P6(k :::; 3) jest suma prawdopodobieristw P6(0) + P6(1) + P6(2) + P6(3). Zatem

Przyklad 1.4 Rzucamy 4 razy kostko. do gry. Obliczyc ptauulopodobietistuio, ie wyrzucimy 6 oczek:

a) dokladnie 2 razy,

b) co najmniej 2 razy.

Rozwiazanie. Oznaczmy przez B zdarzenie polegajace na otrzymaniu 6 oczek dokladnie dwa razy, c, ;,-r'i B zdarzenie polegajace na otrzymaniu 6 oczek co najmniej dwa razy. Wtedy

(4) (1) 2 (5) 2 25

PCB) = P4(2) = 2 "6 "6 = 216 = 0,1157 ...

P(C)

= P4 (2) + P4 (3) + P4 ( 4) = 6 (~) 2 (~) 2 + 4 (~) 3 ~ + (~) 4 =

150 + 20 + 1 171

64 = 1296 = 0,1319 ...

=

Jednym z ciekawszych zagadnieii zwiazanych ze schematem Bernoulliego jest wyznaczenie najbardziej prawdopodobnej liczby sukcesow w serii 0 zadanej dlugosci.

Niech pin b~dlt ustalone i niech Pn(k) oznacza prawdopodobiefistwo uzyskania dokladnie k sukcesow. Przy jakiej wartosci k ta wartosc bedzie najwieksza? W tym celu rozwazrny iloraz

Pn(k + 1) _ (k~l)pk+lqn-k+l _ (n - k)p

Pn(k) - (~)pkqn-k - (k + l)q'

q = 1- p.

Zatem Pn{k) jest funkcja rosnaca zmiennej k, gdy

(n - k)p > {k + l)q

20

1. Prawdopodobieitstwo

--------------------------

1.4. Zmienne losowe i ich rozklady _

21

k < np - q = (n + l)p - 1.

Dla porownania P19(0) = 0,0144 ... , P19(19) = 0,000000000000052 ... Uwaga. Przy duzych n w schemacie Bernoulliego najbardziej prawdopodobna liczba sukces6w ko jest w przybliieniu r6wna np.

Wzor Bernoulliego dla duiych wartosci n jest uciazliwy rachunkowo. Jest to zwiazane z symbolem (~) wystepujacym w tym wzorze. S~ wiec uzywane pewne przybliione metody wyznaczania Pn(k).

Jedna z nich jest zawarta w nastepujacym twierdzeniu:

lub r6wnowaznie, gdy

Gdy zachodzi nierownosc przeciwna

k » np - q = (n + l)p - 1,

wowczas Pn(k) jest malejaca funkcja zmiennej k.

Zatem Pn(k) osiaga wartosc najwiekszq, gdy

Pn(ko - 1) ~ Pn(ko) ~ Pn(ko)

a wiec, gdy

(n + 1)p - 1 ~ ko ~ (n + 1)p.

Twierdzenie 1.8 (Twierdzenie lokalne Moivre'a-Laplace'a) Przy ustalonym p E (0,1) i wszystkich k, dla ktorych

k-np

Xk=--

y'niiq

Jezeli (n + 1)p nie jest liczba naturalna, to ko jest wyznaczona jednoznacz-

lezy w dowolnym skoticzotnjm przedziale (a,b), mamy

nie i

ko = [en + 1)p], gdzie [x] = calosc (cz(;lse calkowita) licz by x.

J ezeli (n + 1)p jest liczba naturalna, to

( _1 (!!d) 2 )

2 ",mpq

Pn(k) ~ e ~ , q = 1 _ p . 2rrnpq

ko=(n+1)p lub ko=(n+1)p-1

Twierdzenie 1.9 (Twierdzenie integralne Moivre'a-Laplace'a) Niech prasodopodobienstuio zajscia zdarzenia A w serii n niezaleznucli dosunadczeti bedzie stale i roume p, 0 < p < 1. Jezeli k oznacza liczbe sukcesoui {zaisinieti zdarzenia AJ w tych n dosuiiadczenuich, to dla dowolnych a, b, takich ie a < b,

oraz

Pn(ko) = Pn«n + 1)p - 1) = Pn((n + 1)p).

Przyklad 1.5 Znaleic najbardziej prawdopodobnq liczbf, eukceso» w schemacie Bernoullieqo:

mamy

( k - np ) 1 lb 1 2

lim P a < < b = -- e-2t dt.

n-+oo - Jnp(l - p) - ..../2i a

aJ dla n = 7 i p = 0,3, bJ dla n = 19 i p = 0,2.

Rozwiqzanie. a) (n + 1)p = 8·0,3 = 2,4. Stad ko = [2,4] = 2. Istotnie:

P7(0) = 0,0823 , P7(1) = 0,2470 , P7(2) = 0,3176 ,

P7(3) = 0,2268 , P7(4) = 0,0972 , P7(5) = 0,0250 ,

P7(6) = 0,0035 , P7(7) = 0,0002 .

b) (n + 1)p = 20·0,2 = 4. Stad ko = 3 lub ko = 4,

P19(3) e:) (0,2)'(0,8)16 = G!) (0,2)'(0,8)" = P19(4) = 0,2181 ...

Liczba P (a s J:P(1 ~ p) ~ b) jest prawdopodobieitstwem tego, ie wartose x k lezy w przedziale ( a, b).

1.4 Zmienne losowe i ich rozklady

W dalszych zastosowaniach prawdopodobieitstwa istotna role odgrywa Zmienna losowa i rozklad prawdopodobieristwa zmiennej losowej. Pozwalaja one zapisac pewne realne - fizyczne zjawiska losowe - w postaci modeli matematycznych.

Niech n bedzie ustalona przestrzenia zdarzeit elementarnych w, S zbiorem zdarzeit losowych (a-cialem zdarzeri losowych).

1. Prawdopodobienstwo

-------------------

22

. . . X naz wamy kaida funkcjfC okreslotu; na

DefimcJa 1.8 Zmlenn:,\ losow~" y" t "taka ie dla kaidej liczby rze-

"n "" wartoscz rzeczywzs e, z 'Z'

przestrzem ,prozYJmuJq,cq h in "ajqcych nier6wnosc X (w) < x

czywistej x zbior zdarzen elementarnyc w spe z

jest zdarzeniem losowym, czyli naleiy do S"

• t X - X(w) 0 n -T 1R nazywamy zmienna losowa, jezeli

[nnymi SIOWY - •

1\ {w En: X(w) < x} E S. xEll~.

. . .' azmy je na przykladach.

W celu lepszego zrozumlema tego pojecia rozw

. t Wt dy n sklada sie z dwu

I. Niech doswiadczenie polega na rzucie mone ,!:. e

zdarzen elementarnych:

WI - wyrzucenie orla, W2 - wyrzucenie reszki, to znaczy

n = {Wt,W2}, S = {WI,W2,0,n}.

Okreslamy funkcje X : n -T 1R nast~puj,!:co:

X(Wl) = 1, X(W2) = o.

Tak okreslona funkcja jest zmienn,!: losowa. Istotnie

{ 0 dla x < 0

{w En: X (w) < x} = W2 dla 0 < x ~ 1 n dla 1 < x

skad widac, ze w kazdym przypadku zbiory te s'!: zdarzeniami losowymi z rodziny S.

Zauwaimy, ze w tym przypadku mamy:

1 P(X = 0) = P({w: X{w) = O}) = P(W2) = 2' 1

P{X = 1) P({w: X(w) = I}) = P(Wl) = 2'

Jezeli P(X < x) = P({w: X(w) < x}), to mamy

{ 0 dla x < 0 P{X < x) = ~ dla 0 < x ~ 1 1 dla 1 < x

R6wnosci te opisuja tak zwany rozklad zmiennej losowej X.

1.4. Zmienne losowe j ich rozklady _

23

II. Niech bedzie dany schemat Bernoulliego, polegajacy na n-krotnym powtorzeniu ustalonego doswiadczenia. Niech funkcja X przyporzadkowuje kazdernu schematowi liczb e k rowna liczbie uzyskanych w nim sukcesow. Funkcja ta jest zrnienna losowa, gdyz zbior {w : X (w) < x} jest zawsze zdarzeniem losowym, polegajacym na uzyskaniu liczby sukcesow nie wiekszej niz ustalona.

Ponadto

Definicja 1.9 Dla danej zmiennej losowej X funkcjfC

F(x) = P(X < x) = P({w: X(w) < x})

okresiajqcq prauxlopodobietistuo tego, ie zmienna losowa X przyjmie inartosci mniejsze od x, nazywG'J'l1! dystrybuanta zmiennej losowej X.

Dystrybuanta F(x) okreslona dla kazdej zmiennej losowej X rna nastepujace wlasnosci:

1° F(x) jest funkcja niemalejaca dla x E JR = (-00,+00). 2° 0 ~ F( x) ~ 1 dla x E JR.

3° F(-oo) = lim F(x) = 0, F(+oo) = lim F(x) = 1.

x~-oo x~+oo

4 ° F( x) jest funkcja lewostronnie ci'l:gl,!: na JR, to znaczy lim F(x) = F(xo).

x~x;

Zazwyczaj s'l: wyrozniane dwa rodzaje zmiennych losowych:

- zmienne los owe typu skokowego, gdy zbior wartosci funkcji X(w) jest zbiorem skoriczonym lub przeliczalnym,

- zmienne losowe typu ciaglego, gdy zbior wartosci funkcji X(w) zawiera pewien przedzial wlasciwy lub niewlasciwy.

Nie wyczerpuja one jednak wszystkich mozllwosci, rozwaza si~ rowniez tak zwane

24

____________________ 1. Prawdopodobienstwo

- zmienne losowe typu mieszanego, wowczas zbiorem wartosci Iunkcji X (w) jest suma zbioru skoiiczonego lub przeliczalnego oraz przedzialu wlasciwego alba niewlasciwego.

Roznice pomiedzy poszczegolnymi typami zmiennych uwidaczniaja sie zarowno podczas opisywania rozkladow sa.mych zmiennych, jak i tworzenia ich dystrybuant.

Zmienne typu skokowego

Definicja 1.10 Deflnicja rozkladu zmiennej losowej typu skokowego Niech xl, X2, ••• , Xk, .•• bedzie skoticzonum lub przeliczalnym zbiorem wartosci zmiennej losowej X. Funkcje

Pi = P(X = Xi) = P({w: X(w) = Xi})

przyporzqdkowujqcq soartosciom Xl, X2, ••• , Xk, ••• zmiennej losowej X odpowiednie prauulopodobietistuxi Pl,P2,'" ,Pk, ... nazywamy rozkladem zrniennej losowej typu skokowego. Mamy przy tym I:i Pi = 1.

Dla zrniennej losowej typu skokowego dystrybuanta wyraza sie wzorem

F( X) = L P( X = Xi) = L Pi .

Xi<X

Xi<X

Suma ta rozciaga si~ na te wskazniki "i", dla ktorych wartosci zmiennej Xi s'!; mniejsze od liczby z ,

N ajczesciej rozwazanymi rozkladami zmiennej losowej typu skokowego s'!;: rozklad zero-jedynkowy, rozklad Bernoulliego, rozklad Poissona.

Rozklad zero- jedynkowy

Rozklad zero-jedynkowy rna rniejsce wtedy, gdy zrnienna losowa X przyjrnuje tylko dwie wartosci: wartosc 1 z prawdopodobieiistwern p oraz wartosc 0 z prawdopodobietistwem q = 1- p, P E (0,1). Mozemy to zapisac nastepujaco:

P(X = 1) = P, P(X = 0) = q = 1 - p.

Dystrybuanta ma postac

F(.) = {

o dla x:S 0

q=1-p dla 0<x:S1

1 dla l<x

Wykres funkcji y = F(x) przedstawiony jest na Rys. 1.1.

1.4. Zrnienlle losowe i ich rozklady

------------------

25

o

X

y

1

q9---

p

1

Rys. 1.1. Wykres dystrybuallty rozkladu zero-jedYllkowego

Rozklad Bernoulliego (rozklad dwumianowy)

Rozklad Bernoulliego (rozklad d .

. wurniallowy) rna mi . t d .

Z~ll1ellna losowa X przyjrnuje wartosel k { iejsce w e r, kI.edy

lllO z prawdopodobieiistwem E 0,1,2, ... , n - 1, n} odpoWIed-

Pk = Pn(k) = (;)pkqn-k = (kn)pk(1 _ p)n-k,

k = 0,1, ... ,n,

~dziepE(o,1)jestustalonejq=1_ ( = L) .,

Jest rowne k-temu wyrazo . d . p, P + q - 1 . Prawdopodoblellstwo Pk

WI wumianu Newtona

(p + qt = f (n)pkqn_k

k=o k

i stad uzywana nazwa: rozklad d .

. wUffilallowy.

Dystrybuanta tej zmiennej X wyraza si~ wzorem

W szczegoillym przypadku gdy n - 3 _ 1

, -, p - 2' mamy rozklad

Po = P3(O) = ~, 1'l = P3(1) =~, P2 = Ps(2) = ~, Pa = P3(3) = ~

26
oraz dystrybuante
F(x) ~ 1 0 dla x~O
1/8 dla O<x~l
1/2 dla 1<x~2
7/8 dla 2<x~3
1 dla 3<x 1. Prawdopodobienstwo

Rozklad Poissona

Rozklad Poissona rna miejsce wtedy, kiedy zmienna X przyjmuje odpowiednio wartosci bedace liczbami naturalnymi k E {D, 1,2, ... } z prawdopodo-

bienstwami

)..k

-A Pk = k! e ,

gdzie ).. jest ustalonym dod~tnim parametren:t charakteryzuiacym te~ rozklad.

Rozklad ten jest gramcznym przypadklem rozkladu Bernoulliego przy n ~ 00 i zmiennym p, takim ze p = )../n. Istotnie:

I (>.)k ( >.)n-k

lim Pn(k) = lim kl( n. k)1 - 1- - =

n .... oo n_oo . n - . n n

j!'~ { (1 - ~) (1 - ~) ... (1 - k: 1) (1 - ~ r . ~: (1 - ~ n ~

Dystrybuanta rna postac

)..k )..k

F(x) = L kfe-A = e-A L k!

k<x k<x

F( +00) = e-A L )..: = e-AeA = 1. k=x k.

W rozkladzie Poissona zmiena losowa X przyjmuje nieskoficzenie wiele, a dokladnie - przeliczalnie wiele wartosci,

Zmienne typu ciqglego

Dla zmiennej losowej typu ciaglego nie mozna wprowadzic pojecia rozkladu podobnego do rozkladu zmiennej typu skokowego. Dlatego w tym przypadku zamiast rozkladu wprowadza si~ pojecie "g~stosci prawdopodobienstwa" zmiennej losowej typu ciaglego.

1.4. Zmienne los owe i ich rozklady _

27

Zalozrny, ie X jest zmienna losowa typu ciaglego i F( x) jest dystrybuanta tej zmiennej. Wtedy przy Llx > 0 mamy

lim P(x ~ X < x + Llx) = lim F(x + Llx) - F(x) = F'(x)

llx-+O+ Llx llx-+O Llx

jezeli dystrybuanta F jest funkcja rozniczkowalna, W6wczas funkcje

f(x) ~f F'(x) ~ D

nazywamy gestoscia prawdopodobiefistwa zmiennej losowej typu ciaglego.

Mozemy teraz podac nieco scislejszC); definicje zmiennej losowej typu ciaglego.

Zmienna losowa X jest zrnienna losowa ciagla (ciC);glC); na danym przedziale lub przedzialami ciC);glC);), jezeli rna w danym obszarze g~stosc prawdopodobieiistwa f( x) i f( x) jest funkcja ciC);glC); (na danym przedziale lub przedzialarni ciC);glC);).

Pomiedzy dystrybuanta F a g~stosciC); f zachodza zaleznosci:

d

F'(x) = dxF(x) = f(x), gdy F rozniczkowalna,

F(x) = I: f(t)dt = 1~ f(t)dt + F(xo), P(a ~ x < b) = lb f(t)dt = F(b) - F(a), 1:00 f(t)dt = F(+oo) - F(-oo) = 1.

Dla zmiennej losowej ciaglej g~stosc prawdopodobieristwa, lub krotko gestosc, jest pojeciem analogicznym do pojecia rozkladu zmiennej losowej typu skokowego. Mowimy wiec, ze g~stosc okresla rozklad zmiennej losowej typu ciaglego.

Rozklad normalny

N ajpopularniejszym rozkladem zmiennej losowej typu ciaglego jest rozklad normalny, zwany rowniez rozkladem Gaussa.

G~stosc rozkladu normalnego jest okreslona wzorem

1 (X-'2)2 1 I (x_m)2

f(x) = e" 2". = --e-'2 =s': ,

~ u.,ffi

28

___________________ 1. Prawdopodobienstwo

gdzie mi a s,!: ustalonyrni pararnetrarni charakteryzujacymi ten rozklad. Oznaczarny go syrnbolern N (m, 0"). Dystrybuanta F( x) rna postac

1 jX 1(t-m)2

F(x) = fie e-2" c;- dt.

o v 211" -00

Dla m = 0, 0" = 1 rozklad N(O, 1) nazywarny rozkladern norrnalnyrn znormalizowanym lub rozkladem norrnalnyrn standaryzowanym. Wtedy

jest funkcja Laplace'a i podobnie

gdzie q,( x) jest inna funkcja Laplace'a.

Istnieja tablice funkcji q,(x) i ¢(x) (zarnieszczone w Rozdziale 5) podobnie jak funkcji trygonornetrycznych. W spornniana funkcja q, rna nastepujace wlasnosci:

1° q,(-x) + q,(x) = 1. 1

2° cI>(0) = 2'

( . '() 1 1 t2

3° q, x) rosnC):ca, gdyz cI> x = fiee- 2" > O.

y211"

4° q,(+oo) = lim q,(x) = 1.

x--+oo

Zmienne typu mieszanego

Zmienna losowa typu rnieszanego najlatwiej okreslic podajac jej dystrybuante, ktora jest w postaci

F(x) = aFl(x) + j3F2(x),

gdzie Fl (x) jest dystrybuanta pewnej zrniennej typu skokowego, F2( x) dystrybuanta pewnej zrniennej typu ciC):glego oraz

a+j3=l.

1.5. Niezaleznosc zrniennych losowych _

29

Przyklad 1.6 Dosunadczenie losowe po/ega na rzucie koetkti szesciermq do g~y na kwadratowq plansze 0 boku 4. Zmienna losouia X przyjmuje uiartosci rowne:

- liczbie u;y:-zucon¥ch oczek, jeieli liczba ta jest podzielna przez trzy,

-odlegloscz kostkz od ustalonego boku tarczy, gdy liczba wyrzuconych oczek

na ko~tce jest niepodzielna przez trzy (kostke na tarczy traktujemy jak punkt). Podac dystrybuant~ zmiennej X.

Rozwiasanie. Dystrybuanta rna postac

gdzie

{o dla e x S

Fl(X) = 1/2 dla 3 ::; x < 6

1 dla 6 ::; x

jest dystrybuanta zrniennej skokowej przyjmujacej wartosci 3 lub 6 z prawdopodobienstwem 1/2 oraz

{ 0 dla x < 0

F2 ( x) = x / 4 dla 0 ::; x < 4

1 dla 4 ::; x

jest dystrybuanta rozkladu ciC):glego. Zatem

dla x < 0 dlaO::;x<3 dla 3 ::; x < 4 dla 4::; x < 6 dla 6 ::; x

o x/6

(1 + x)/6 5/6

1

1.5

N Iezaleznosc zmiennych losowych

Omowimy to pojecie wpierw dla zmiennych losowych typu skokowego. W tym celu jednak musimy wprowadzic pojecie zmiennej losowej dwuwymiarowej.

Defi~icja 1.11 Zmiennq losouui Z = (X, Y) przyjmujqcq skoticzonq bqdi p~zelzczalnq liczbe umrtosci (Xi, Yj), kazdo z prauidopodobiesistuiem odpowiednio rownym Pi,j, i,j E N, przy czym

LLPi,j = 1, i j

30

___________________ 1. Prawdopodobienstwo

nazywamy dwuwy miarowa zmienna losowa typu skokowego. Piszemy

P(X = Xi, Y = Yi) = Pi,j.

Niech X bedzie zmienna los owa przyjmujaca wartosci Xl, X2, ... odpowiednio z prawdopodobieristwami

Pi = Pt.» = P(X = Xi) = P(X = xilY dowolne), i = 1,2, ...

i podobnie Y zmienna losowa przyjmujaca wartosci YI, Y2, ... odpowiednio z prawdopodobieiistwami

Pj = p.,j = P(Y = Yj) = P(Y = YjlX dowolne), j = 1,2, ...

Zmienne te nazywamy rozkladami brzegowymi zmiennej losowej (X, Y).

Definicja 1.12 M6wimy, ie zmienne X, Y sq niezalesne, jeieli dla wszystkich naturalnych i, j mamy

P(X = xilY = Yj) P(Y = YjlX = Xi)

P(X = Xi) = pi,e , P(Y = Yj) = p.,j.

Wykorzystujac prawdopodobieiistwo warunkowe

P(X = .IY = .) = P(X = Xi,Y = Yj)

X, YJ P(Y = Yj) ,

widzimy, ze niezaleznosc zmiennych X, Y mozna okreslic warunkiem: zmienne X, Y s,!: niezalezne, jezeli

lub rownowaznie, gdy

Pi,j = PiPj dla wszystkich dopuszczalnych i, iRozklad

P(X = XilY = Yj), i = 1,2 ... , Yj ustalone

nazywamy rozkladem warunkowym zmiennej X przy warunku Y podobnie

P(Y = YjlX = Xi), j = 1,2 ... , Xi ustalone nazywamy rozkladem warunkowym zmiennej Y przy warunku X = Xi.

1.5. Niezaleznosc zmiennych losowych _

31

Zmie~n,!: losowa dwuwymiarowa typu ci,!:glego nazywamy zrnienna 0 dys-

trybuancie "

F(x, y) = P(X < X, Y < Y), dla (x, y) E 1I.~_2.

Zmienne losowe 0 dystrybuantach

P(X < x) = P(X < xlY dowolne), P(Y < y) = P(Y < ylX dowolne)

nazywamy zmiennymi losowymi 0 rozkladach brzegowych.

. Niezaleanose zmiennych losowych typu dowolnego mozemy okreslic naste. pujaco.

~owi~y, i: ~~ienne losowe X, Y 0 dystrybuantach odpowiednio FI, F2 S,!: mezalezne, jezeli dystrybuanta F zmiennej dwuwymiarowej (X, Y) spelnia warunek

dla wszystkich x, y.

Podobnie zmienne X, Y s,!: niezalezne, jeieli

P(XI ~ X ~ X2,YI ~ Y s Y2) = P(XI ~ X ~ X2)P(YI ~ Y ~ Y2).

Dl~ zmiennych losowych typu ciaglego mozemy wprowadzic pojecie gestosci zmiennych dwuwymiarowych (X, Y)

I( ) _ 82F(x,y)

x, Y _ -~_:_::..:

8x8y

Gdy zmienne SC): niezaleine, wowczas

lim P(x ~ X < X + flx,y < Y < Y + fly)

(Ax,AY)~(O,O) flxfly

li P(x~X<x+flx) . P(y<Y<y+fly)

m . lim ___;c:._:-::::_--==--:::._:___:~

Ax~O flx Ay~O fly

h(x). hey),

gdzie F{(x) = hex), F~(x) = hex).

Wtedy mamy

I(x, y) =

=

32

__________________ 1. Prawdopodobienstwo

Zatem dla zmiennej dwuwymiarowej (X, Y), gdy X, Y s,!: niezalezne, g~stosc dwuwymiarowajest r6wna iloczynowi g~stosci poszczeg61nych zmiennych (rozklad6w brzegowych):

f(x,y) = JI(x)h(y).

Jezeli f(x,y) jest g~stosci,!: rozkladu zmiennej Z = (X,Y), to funkcje

1+00

JI(x) = -00 f(x, y)dy

oraz

hey) = r: f(x, y)dx

s,!: gestoscia rozklad6w brzegowych.

Podobnie mozna wyznaczyc dystrybuanty rozklad6w warunkowych:

F(xly) = P(X < xlY = y) = j_xoo f(uly)du

oraz

F(ylx) = P(Y < ylX = x) = 1:00 f( vlx )dv,

gdzie funkcje

f( I ) = f(x,y)

z y hey) ,

f( I ) = f(x,y)

y x JI(x)

s,!: gestosciami rozklad6w warunkowych.

Pojecie zmiennej losowej dwuwymiarowej mozna uogolnic na wyzsze wymiary i okreslic niezaleznosc takich zmiennych.

Dla zmiennych niezaleinych (X, Y, Z) 0 zadanej dystrybuancie

F(x,y,z) = P(X < x,Y < y,Z < z)

g~stosc prawdopodobieiistwa f(x, y, z) spelnia warunek

83 F(x, y, z)

f(x, y, z) = 8x8y8z .

Przyklad 1.7 Niech zmienna (X, Y) ma gftstosc prauulopodobietistuxi f(x, y) zadana wzorem

f(x ) _ { ~sin(x + y) dla 0::; x::;~, 0::; y::; ~,

,y - 0 dla pozostalych (x, V).

Wyznaczyc dystrybuantft zmiennej (X, Y) oraz gftstosci rozklad6w brzegowych i warunkowych.

1.5. Niezaleznosc zmiennych losowych _

Rozwiqaania. Dvstrybuante F(x, y) wyznaczamy ze wzoru

F(x,y) = P(X < x,Y < y) = j_: (j_~ f(u,V)du) dv.

Otrzymujemy kolejn»

F(x, y) = ~ fox foY sine u + v)dudv =

-~ fox(cos(u + v» I: du = ~ fox( - cos(u + y) + cos(u»du = = ~(-sin(u+y)+sin(u» I: = ~(-sin(x+y)+sinx+siny) dla 0 ::; x s 1r /2, 0 ::; y ::; 1r /2;

1 t" f1r/2 . 1

F(x,y)= "210 10 S1ll(u+ v)dudv= 2(1+sinx-cosx)

dla 0 ::; x ::; 1r /2, y > 1r /2;

1 r/2 t" . 1

F(x,y)= 210 10 S1ll(u+ v)dudv = 2(1+siny-cosy)

dla x > tt /2, 0 s Y ::; 1r /2;

117r/211r/2

F( x: y) == ::) sine u + v)dudv = 1

c. 0 0

dla x > 1r /2, y > 1r /2.

Og6lnie dla dowolnych x, y mamy
0 dla x::;O lub y::;O
Hsin x + sin y - sin(x + y» dla O::;x::;~ O::;y::;~
F(x, y) = !(1 + sin x - cosx) dla O::;x::;~ ~::;y
!(1 + siny - cosy) dla ~::;x O::;y::;~
1 dla 1[<x ~::;y
2 - Wyznaczamy funkcje gestosci rozklad6w brzegowych:

flex) = 1+00 f(x,y)dy = { fo1r/2 !sin(x + y)dy dla 0::; x::; 1

-00 0 dla pozostalych x

= {o~(Sinx + cos x) dla 0::; x s 1

dla pozostalych x

33

34

___________________ 1. Pr awdopodobienstwo

1+00 { !(sin y + cos y)

hey) = -00 lex, y)dx = 0

dla 0 ~ y ~ 1

dla pozostalych y

oraz rozkladow warunkowych

{ sin(x + y)

f(Xly)=fj2~~~)= ~iny+cosy

dla 0 ~ x ~ 1

dla pozostalych x

f( ) { sine x + y)

x,y .

f(Ylx) = -(-) = smx + cos x

hx 0

dla 0 ~ y ~ 1

dla pozostalych y

1.6 Parametry rozkladu zmiennej losowej

Zmienna losowa mozna scharakteryzowac przez podanie pewnych p~ra~etr6v: liczbowych, kt6re b~d~ dawaly informacj: ~~tycz~ce. rozkl.adu tej zmle~neJ lub g~stosci prawdopodobienstwa. N ajczesciej roz;vazanyml parametrami s~ wartosc srednia oraz wariancja alba odchyleme standardowe.

Pierwszy z tych parametrow ma wiele nazw:

wartosc srednia,

wartosc przecietna zmiennej losowej, wartosc oczekiwana zmiennej losowej, nadzieja matematyczna,

wartosc srednia zmiennej losowej

i jest oznaczany symbolem E(X).

Definicja 1.13 Wartosciq przecietnq [uxirtoscia oczekiwanq) zmiennej losowej X typu skokowego 0 rozkladzie

Pi = P(X = Xi), i = 1,2, ...

nazywamy liczbe

E(X):= LPiXi = ~XiP(X = Xi)

"',. p;X,· [est skoticzona alba szereg nieskoticzonq

przy zaloieniu, ie suma L..J •

00

L: PilXil jest zbieiny.

i=1

1.6. Parametry rozkladu zmiennej losowej _

35

Wartosciq przecietna (wartosciq oczekiuxinq} zmiennej losowej X typu ciqglego 0 g~stosci rozkladu f( x) nazywamy liczbe

d f r:

E(X) ~ L; xf(x)dx

1+00

przy zaloieniu, ie calka -00 Ixlf( x )dx jest zbieina.

Jeieli Y = aX + b, to

E(Y) = E(aX + b) = LPi(axi + b) = a LPiXi + b LPi = aE(X) + b.

Przyklad 1.8 Obliczye wartose oczekiwanq E(X) zmiennej losowej X przyjmujqcej uiartosci Xl = 1, X2 = 2, X3 = 4 z prawdopodobienstwami PI = ~,

P_lp_l 2 - 4' 3 - 4·

3

Rozwiqzanie. E(X) = LPiXi = ~.1 + ~. 2 + ~. 4 = 2.

i=1 2 4 4

Przyklad 1.9 Obliczye wartose oczekiwanq zmiennej losowej X 0 g~stosci prawdopodobienstwa f( x) zadanej wzorem

f(x) = { ~-IX-11

dla 0 ~ x ~ 2

dla x < 0 lub x > 2

Rozwiqzanie.

Zatem

E(X) = 1.

Przyklad 1.10 Obliczye E(2X - 3), gdzie X jest zmienna z Przykladu 1.8 .

Rozwiqzanie.

36 1. Prawdopodobieristwo

lub

E(2X - 3) = 2E(X) - 3 = 2·2 - 3 = 1.

Niech dana bedzie dowolna zmienna losowa X i niech g( x) bedzie przeksztalceniem ciaglym wzajemnie jednoznacznym, g' (x) i= 0, natomiast h( x) przeksztalceniem do niego odwrotnym. Rozwazmy nowa zmienna losowa Y = g(X). Gestosc rozkladu tej zmiennej wyraza sie wzorem

fy(y) = fx(h(y»lh'(y)l,

gdzie fx jest g~stosci,!: rozkladu zmiennej X.

W szczegolnym przypadku, gdy g( x) = ax + b, piszemy

Y = aX +b

i rozklad Iv rna postac

1 (Y - b)

fy(y) = ~ fx -a- .

Wartose oczekiwana zmiennej Y = aX + b rna postac

E(Y) = aE(X) + b,

natomiast w ogolnym przypadku

1+00 1+00

E(Y) = E(g(X» = -00 f(x)g(x)dx = -00 yf(h(y»h'(y)dy.

Dla zmiennej losowej X typu skokowego zmienna Y = g(X) jest tez typu skokowego 0 wartosciach Yi = g(Xi) i rozkladzie

gi = P(Y = Yi) = Pi .

Wtedy

E(Y) = LPig(Xi) = L P(X = Xi) . g(xd·

i i

Momentem rzedu k zmiennej losowej X nazywamy wartosc oczekiwana zmiennej Y = x», to znaczy moment ten obliczamy wed lug wzoru

mk = E (Xk) = LPiXf

i

lub

1.6. Parametry rozkladu zmiennej losowej _

37

w zaleznoscl od tego, czy zmienna losowa jest typu skokowego czy ciaglego.

N a szczegolna uwage zasluguje moment rzedu drugiego dla zmiennej Y = X - E(X); nazywamy go wariancja i oznaczamy symbolem VeX), to znaczy

VeX) := E (rx - E(XW) .

Latwo policzyc, ze wariancja VeX) moze bye zapisana w postaci

VeX) = E(X2) - [E(X)f

Istotnie:

E ([X - E(X)]2) = E (X2 - 2X· E(X) + [E(X)]2) =

= E(X2) - 2E(X)· E(X) + [E(X)]2 = E(X2) - [E(X)f

Przyklad 1.11 Obliczyc uiariancje VeX) z Przykladow 1.8 i 1.9.

Rozwiaaanie, 1. Dla zmiennej X z Przykladu 1.8 mamy

E(X2) = ! . 12 + ! .22 + ! .42 = ! + 1 + 4 = 5! = g

2 4 4 2 2 2'

VeX) = E(X2) - [E(X)]2 = 121 _ 22 = ~.

Drugim sposobem (bezposrednio z definicji):

VeX) = E (rx - E(XW) = !(1- 2)2 + !(2 - 2)2 + !(4 - 2)2 = ! + 1 = ~

2 4 4 2 2·

2. Zmienna X z Przykladu 1.9. Korzystamy z przytoczonego wczesniej wzoru

E(g(X» = 1:00 f(x)g(x)dx

oraz z tego, ze E(X) = 1, i otrzymujemy:

VeX)

= E[(X - E(X»2] = fo2 (x - 1)2(1 -Ix - 11)dx =

fo\x - 1)2xdx + l\x - 1)2(2 - x)dx =

= fo1(X3-2x2+X)dX+ 12(2-5x+4x2-x3)dx=

(1 4 2 3 1 2) 11 ( 5 4 1) 12 1

4x - 3x + 2x 0 + 2x - 2X2 + 3x3 - 4x4 1 = 6·

=

X
E(X) Y
Xl X2
wtedy mamy
E(Y)
0 Y2 Z=X+Y 38 1. Prawdopodobieristwo

Wariancja VeX) jest miara rozproszenia wartosci zmiennej losowej X od jej wartosci sredniej E(X). Mala wariancja informuje, ze wszystkie wartosci zmiennej losowej 0 "duzym prawdopodobienstwie" lez<}; blisko wartosci sredniej E(X). W celu ilustracji tego faktu rozwazmy dwie zmienne losowe X, Y okreslone nastepujaco:

P (X = _!:_) = ~

10 2'

1 P(Y = 10) = 2'

P (X = -_!:_) = ~

10 2'

1 P(Y = -10) =- 2·

Wtedy

E(X) VeX)

V(Y)

E(Y) = 0,

E(X2) _ [E(X)]2 = ~_1 ~_1 __ 1 2100 + 2100 - 100'

2 1 1

E(Y ) - [E(y)]2 = 2100 + 2100 = 100.

W obu przypadkach wartosc srednia jest rowna zeru, a odchylenia standardowe - wariancje - s'}; bardzo rozne. Rozproszenie zmiennej Y jest wielokrotnie wieksze od rozproszenia zmiennej X, co mozna zaobserwowac na wykresach przedstawionych na Rys. 1.2.

X

Y

Yl

Rys. 1.2. Zmienne losowe X i Y

Wariancja jest moment em rzedu drugiego zmiennej Y W ogolnym przypadku wyrazenia

X - E(X).

nazywany momentami centralnymi rzedu k.

Przypomnijmy jeszcze raz wzory na wartosc przecietna i wariancje zmiennej losowej X:

E(X) = L XkPk, k

1.6. Parametry rozkladu zmiennej losowej _

39

gdy zmienna X jest typu skokowego, oraz:

1+=

E(X) = _= xf(x)dx,

VeX) = 1:= (x -1:= tf(t)dt) 2 f(x)dx

dla zmiennej typu ciaglego.

Przedstawimy teraz pewne wlasnosci wartosci przecietnej:

1 ° E( C) = c, gdzie X = C oznacza zmienna losowa przyjmujaca war-

tosc c z prawdopodobieiistwem 1,

2° E(c·X)=c.E(X),

3° E(X + Y) = E(X) + E(Y), }

40 E(X. Y) = E(X). E(Y), gdy X, Y - zmienne niezalezne,

We wzorach 3° i 4° przez sume X + Y oraz iloczyn X . Y rozumiemy zmienne

przyjmujace wszystkie wartosci bedace, odpowiednio, sumami lub iloczynami wartosci przyjmowanych przez poszczegolne zmienne z prawdopodobieiistwem (g~stosci'}; prawdopodobienstwa) bedacym iloczynem prawdopodobienstw lub sum'}; iloczynow. Przedstawmy to na prostym przykladzie:

P(X = 1) = t, P(X = 2) =~, P(X = 3) = ~, P(Y = 0) = t, P(Y = 10) = t,

III P(Z = 1) = 4' P(Z = 2) = 8' P(Z = 3) = 8'

III P(Z = 11) = 4' P(Z = 12) = 8' P(Z = 13) = 8·

Stad

E(X) E(Y) E(Z)

1 1 3 7 2 + 2 + 4 = 4'

= 0 + 5 = 5,

1 1 3 11 12 13 27 7

4 + 4 + 8 + "4 + 8 + 8 = "4 = 4 + 5.

Dla iloczyn u

40

_________________ 1. Prawdopodobienstwo

1.7. Przyklady najczesciej stosowanych ... _

41

mamy

1 1 1 1

P(U = 0) = 4 + 8 + 8 = 2'

1

P(U = 20) = -,

8

1 P(U = 10) = 4'

1 P(U = 30) = 8'

I. Rozklad zero-jedynkowy

P(X = 1) = p, P(X = 0) = q = 1- p.

Wtedy

1 1 1 1 10 + 10 + 15 35 7

E(U) = O2 + 104 + 208 + 308 = 4 = "4 = 4.5.

E(X) E(X2)

VeX)

o q + 1· p = », o· q + 1· p = p,

E(X2) - [E(XW = p - p2 = p(l- p) = P: q.

Wlasnosci wariancji:

1° Vee) = 0,

2° V(c· X) = c2V(X),

3° vex + Y) = V(X)+ V(Y), } .. lez

gdy X, Y - zmienne meza ezne.

4° vex - Y) = VeX) + V(Y),

II. Rozklad rownomierny skokowy

Zmienna losowa przyjrnuje skoiiczona Iiczbe wartosci, n < 00, z jednakowyrn prawdopodobieristwcm:

1

P(X = Xi) = -, i = 1,2 ... , n. n

Zatem

rOwnosc

E(X)

1 n -"x· .LJ" n 1

Twierdzenie 1.10 Dla kaidej liczby rzeczywistej c i= E(X) ma miejsce nie-

Nieroumosc ta tnouii, ie umrtosc oczekiwana zmiennej [X -cJ2 osiqqa minimum wlasciwe, gdy c jest uiartoscia przecietnq danej zmiennej.

E (X2 - 2cX + c2) = E(X2) - 2cE(X) + c2 = = E(X2) - [E(X)]2 + {c2 - 2cE(X) + [E(X)]2} = VeX) - [c - E(X)]2 > VeX),

III. Rozklad rownomierny ciagly (rozklad jednostajny)

Zrnienna losowa przyjrnuje wartosci z przedzialu (a, b), z jednakowyrn prawdopodobienstwern r6wnym 1/(b-a). Funkcja g~stosci rna postac

Dow6d.

I(x) = { fa

dlaa<x<b

dla pozostalych x

Zatern

gdy c i= E(X).

E(X) = VeX)

a+b -2-'

(b - a)2

12

1. 7 Przyklady najczesciej stosowanych rozklad6w i ich parametry

IV. Rozklad liniowy

Funkcja gestosd jest fragrnentern funkcji liniowej

Przedstawirny teraz pewne szczeg61ne rozklady zrniennej losowej oraz wyliczyrny pararnetry E(X) i VeX) rozkladu tych zrniennych

{~

f( x) = Jb-=-ci")T

dla c x e x s

dla pozostalych x

42

--- __ ~~ 1. Prawdopodobteristwo

V. Rozklad normalny

1 1 (:r_m)2

f(x) = --e-2" -q- .

cry"Fi

Wtedy

E(X)

£::!!!. = u I

1 =du =

+00

J m + ati -!u2d ---==-e 2 u =

y"Fi

-00

gdyz drug a calka jest rowna zeru jako calka z funkcji nieparzystej, a calka pierwsza jest rowna y"Fi.

Zatem wartosc oczekiwana zmiennej losowej 0 rozkladzie normalnym jest rowna parametrowi m:

E(X) = m.

Wowczas

VeX)

+00

1 J 1 (:r-m)2

E([x - E(XW) = -- (x - m?e-2" -q- dx =

cry"Fi

-00

=

£::!!!. = U a

dx = du a

=

=

Zatem wariancja VeX) = cr2 jest kwadratem drugiego parametru zmiennej losowej 0 rozkladzie normalnym.

Liczbe a = .jV(X) nazywa si~ odchyleniem standardowym.

1.7. Przyklady najczesciej stosowanych ... _

43

Reasumujac, jezeli X ma rozklad normalny N(m,cr), to

E(X) = m,

Jeieli X ma rozklad normalny, to

Y = aX +b ma tez rozklad normalny N(am + b, lalcr)

E(Y) = aE(X) + b = am + b, V(Y) = a2V(X) = a2cr2 = (lalcr)2 .

Zmienna

Z = X - m = .!.X _ m

a o a

rna rozklad N (0, 1) nazywany rozkladem normalnym standaryzowanym. Wtedy

m = E(Z) = 0, o = .jV(Z) = 1.

Dla zmiennej N(O, cr) moiemy policzyc momenty (centralne) dowolnego rzedu:

+00

P,k(X) = _1_ J xke-t~dx = { 0, gdy k = 2/-1

cry"Fi -00 1 . 3 ... (2/- 1)cr2, gdy k = 2/.

Pierwsza cz~se wzoru wynika z tego, ze funkcja podcalkowa jest nieparzysta. Druga cz~se wynika ze wzoru rekurencyjnego otrzymanego z calkowania przez cz~sci:

E(X21) = (2/- 1)cr2E (X2(1-1)).

Rozklad normalny mozemy przedstawid graficznie, Rys. 1.3.

VI. Rozklad Bernoulliego

Niech X bedzie zmienna w schemacie Bernoulliego

P(X=k)= (~)pkqn-k, p+q=l, k=0,1,2, ... ,n.

Wtedy

E(X)

n-l ( 1)

= np L n - plqn-l-l = n . p.

1=0 1

44 1. Prawdopodobienstwo

1

Rys. 1.3. Funkcja gestosci rozkladu norrnalnego

Zatern

VeX) = E(X2) - E2(X) = np(np + q) - (np? = npq = np(l- p).

VII. Rozklad Poissona

Niech X bedzie zmienna losowa 0 rozkladzie Poissona

>.k

P(X=k)= k!e-,\ k=O,1,2, ...

Wtedy

E(X)

1.7. Przyklady najczesciej stosowanych ... _

45

Ostatecznie

E(X) = x, VeX) = x, x > O.

VIII. Rozklad wykladniczy

Jeieli funkcja gestosci wyraza sie wzorern

{I-xI>'

f(x) = le

dla x ~ 0 dla e x D

to mowimy, ie zmienna X rna rozklad wykladniczy. Dystrybuanta rna wtedy postac

{ 1- e-x/>' F(x) = 0

dlax~O dla z x Il

Ponadto

E(X) = >.,

IX. Rozklad X2 (chi kwadrat)

Moina dowiesc, ie jeieli zrnienne losowe X}, X2, ••• , Xk S,!: niezaleine i maja rozklady norrnalne standaryzowane N(O, 1), to zmienna

k X2:= LX;

i=l

rna rozklad 0 gestoscl prawdopodobieristwa danej wzorern

dla x :S 0 dla z o D

Rozklad ten nazywamy rozkladem chi kwadrat i oznaczamy syrnbolern X2 (X - grecka litera chi).

46

____________________ 1. Prawdopodobienstwo

Wystepujaca tu funkcja I'( x) nazywa sie funkcja gamma Eulera i jest okreslona wzorem

x> O.

Funkcja I'( x) jest uogolnieniem funkcji "silnia" i zachodza wzory

r(n + 1) = n!, n E N; rex + 1) = z I'(z ), x> O.

Liczbe k nazywamy liczba stopni swobody rozkladu x2•

Zalozmy, ie populacja generalna X ma rozklad normalny N(m,a), gdzie m, a jest skoiiczone, ale nieznane. Wybieramy losowo probe 0 licznosci n oraz kazda i-t~ obserwacje traktujemy jako niezalezna zmienna Xi 0 wartosci odpowiednio xi. Definiujemy nowa zmienna losowa X (srednia z proby)

Wtedy zmienna losowa

ma rozklad X2 0 liczbie stopni swobody k = n - 1.

Rozklad ten jest wykorzystywany do weryfikacji hipotez statystycznych.

Funkcja gli:stosci rozkladu prawdopodobieristwa i dystrybuanta rozkladu X2 s~ stablicowane i ich wartosci mozna odczytac z tablic statystycznych.

X. Rozklad t Studenta

Moina dowiesc, ie jeieli zmienne Xo, XI, X2, ••• , Xn s~ niezaleine i maja rozklad normalny N(O, 1), to zmienna

Xo

ma rozklad 0 gestosci prawdopodobieristwa zadanej wzorem

( t2)-!l:}l

J(t) = 1 1 + _ ,

y'nB(~,~) n

1.8. Momenty dwuwymiarowej zmiennej ... ~--...; .......... __ ....... =... ........ ~ ........

gdzie B( x, y) jest znana funkcja Beta, taka ze

(1 n) 1 1+00 ( t2)-!l:}l

B -, - = - 1 + - dt.

2 2 y'n -00 n

Rozklad ten nosi nazwe rozkladu t Studenta i jest wykorzystywany do weryfikowania hipotez statystycznych.

Uwaga. Przy n -+ 00 rozklad t Studenta d~iy do rozkladu normalnego standaryzowanego N(O, 1), gdyi

1.8

Momenty dwuwymiarowej zmiennej losowej, wsp6lczynnik korelacji

Niech dana bedzie zmienna losowa (X, Y) 0 rozkladzie Pi,j w przypadku zmiennej skokowej lub gli:stosci J(x, y) w przypadku zmiennej ciaglej, Jeieli h = heX, Y) jest funkcja zmiennych X i Y (np. X + Y, X . Y) prowadzaca do nowej zmiennej, to wartosc oczekiwana tej zmiennej moie bye wyliczona

ze wzorow

E(h(X, Y)) = L h(Xi, Yj)pi,j,

i,j

gdzie sumowanie rozciaga sie na wszystkie dopuszczalne wartosci i, i:

+00 +00

E(h(X, Y)) = J J hex, y)J(x, y)dxdy.

-00 -00

Dla funkcji h( x, y) = X kyl wartosci oczekiwane zmiennej h( X, Y) nazywamy momentami rzedu k + 1, oznaczamy symbolami

mk,l = E (Xkyl)

i obliczamy odpowiednio ze wzorow

dla (X, Y) typu skokowego,

48

___________________ 1. Prawdopodoblonstwo

+00 +00

mk,l = J J xkylf(x,y)dxdy dla (X,Y) typu ciaglego.

-00 -00

Rozwaia silil tei momenty centralne

Ilk,l = E ([X - ml,o]k. [Y - mO,ln .

Dla moment ow centralnych mamy:

IlI,O E(X - E(X)),

IlO,I E(Y - E(Y)),

1l2,O E ([X - E(X)]2) = VeX) = O"i,

IlO,2 E ([y - E(YW) = V(Y) = O"~.

W tych wzorach 0"1, 0"2 s~ odchyleniami standardowymi zmiennych X i Y.

Moment centralny mieszany rzedu drugiego

IlI,I = E ([X - E(X)][Y - E(Y)]) = E ([X - ml,O][Y - mO,I])

nazywamy kowariancja zmiennej losowej dwuwymiarowej (X, Y).

Dla momentow centralnych mamy:

1l2,O m2,O - (ml,o)2, IlO,2 = mO,2 - (mo,d2,

IlI,I = ml,l - ml,O· mO,I·

Kowariancja IlI,I jest pewnym miernikiem niezaleznosci zmiennych losowych. Mowi a tym nastepujace twierdzenie:

Twierdzenie 1.11 Jeieli zmienne losowe X i Y sq niezaleine, to ich kouiariancja IlI,I jest rOwna zero.

Dowod,

IlI,I = E ([X - ml,O][Y - mo,l]) = E([X - ml,O]) . E ([Y - mo,l]) = o.

Uwaga. Twierdzenie odwrotne nie jest prawdziwe. Zerowanie silil kowariancji nie zawsze pociaga niezaleznosc zmiennych.

1.8. Momenty dwuwymiarowej zmiennej ... _

49

Jeieli odchylenia standardowe O"t, 0"2 s~ rozne od zera, to definiujemy wspol czyrmik korelacji p = p(X, Y) zmiennych X i Y w nast'iJPujacy sposob:

p = Ill,} = IlI,I _ E([X - E(X)][Y - E(Y))) _

0"10"2 ..j1l2,Ollo,2 - JV(X)V(Y)

E([X - ml,O][Y - mO,I])

J E([X - ml,o]2)E([Y - mo,l]2) .

Twierdzenie 1.12 Dla dowolnych zmiennych losowych X i Y wspolczynnik korelacji p spelnia nierownosc

-1 ~ p ~ 1.

Dowod, Rozwazmy funkcjs zmiennej rzeczywistej t: get) = E {([X - ml,O]t + [Y - mO'l])2} =

t2 E ([X - ml,o]2) + 2tE([X - ml,O][Y - mO,l]) + +E ([Y - mO'I]2) = t20"; + 2tlll,l + O"~.

Funkcja get) jako wartosc oczekiwana kwadratu pewnej zmiennej nie maze przyjmowac wartosci ujemnych. Jak widzimy, funkcja

get) = 0"; . t2 + 21ll,lt + O"~

jest trojmianem kwadratowym wzgledem t i dlatego wyroznik ~ tego trojmianu musi bye ujemny

lub rownowaznle

(.J!2L) 2 s 1,

0"1 • 0"2

co daje teze twierdzenia, Ipi ~ 1.

Definicja 1.14 Zmienne losowe X, Y nazywamy zmiennymi nieskorelowanyrni, jeieli ich wspolczynnik korelacji jest rowny zeru, to znaczy p = O.

Wiadomo, ie kowariancja zmiennych niezaleinych jest rowna zeru, co daje rezultat

X, Y niezaleine ==} X, Y nieskorelowane.

Zerowanie silil wspclczynnika korelacji nie pociaga niezaleznosci zmiennych, ale im wiekszy - bliiszy jednosci - jest jego modul, tym zmienne s~ "bardziej zalezne", a przy p = 1 zaleznosc jest liniowa.

50

___________________ 1. Prawdopodobieristwo

Twierdzenie 1.13 Warunkiem koniecznym zmienne X i Y spelnialy warunek

wystarczajqcym na to, by

P(Y = aX + b) = 1,

jest, ieby ich wspolczynnik korelacji spelnial rownosc Ipi = l.

Oznacza to, ie prawdopodobieristwo, ii zrnienna dwuwyrniarowa (X, Y) przybiera wartosci lezace na pewnej prostej y = ax + b, jest r6~ne je~n~sci ',

Przypuscmy, ie (X, Y) jest zmienna typu skokowego 0 skoriczonej Iiczbie wartosci (Xi, yj). Wtedy dla Ipi = 1 (p = -1 lub P = 1) wszystkie wartosci (Xi, yj) lei~ na jednej prostej (przy zaloieniu, ie Pi,j -.:j:. 0 dla dopuszczalnych i, j), Rys. 1.4.

Rys. 1.4 Rozklad zrniennej (X, Y) dla Ipi = 1

1.9 Funkcja charakterystyczna

Definicja 1.15 Funkcja charakterystyczna zmiennej losowej X nazywamy funkcj~ zespolonq zmiennej rzeczywistej t okreslotu; wzorem

Dla zrniennej losowej typu skokowego

<p(t) = I:>itxk . Pk = I)COS(txk) + i sin(txk)]Pk'

k k

dla zrniennej losowej typu ciaglego

1+00 1+00 1+00

<p(t)= -00 eitxf(x)dx= -00 cos(tx)f(x)dx+i -00 sin(tx)f(x)dx.

1.9. Funkcja charakterystyczna _

51

Przyklad 1.12 Wyznaczyc funkcj~ charakterystycznq <pet) dla zmiennej losowej X 0 rozkladzie Poissona

)..k

P(x = k) = e-..\kT' k = 0,1,2, ...

Rozwiqzanie.

+00 \k +00 (\ it)k . .

<pet) = L eitke-..\; = e-..\ L Ae, = e-..\e..\e'l = e>'(e,l-l).

k=l k. k=l k.

Przyklad 1.13 Wyznaczyc funkcj~ charakterystycznq <p(t) dla zmiennej 10- sowej X 0 rozkladzie Bernoulliego (dwumianowym).

Rozwiazanie.

<p(t) = i: (n)pkqn-keitk = t (n)(peit)kqn-k = (peit + qt.·

k=O k k=O k

Przyklad 1.14 Wyznaczyc funkch charakterystycznq <pet) dla zmiennej 10- sowej X 0 rozkladzie normalnym standaryzowanym.

Rozwillzanie.

_1_1+00 eitxe-tx2dx = _1_1+00 e-t(X2-2itx+(it)2)-tt2dt =

V2-i -00 V2-i -00

1 1+00 _1(x-it)2d _lt2 _lt2

-- e 2 x·e 2 =e 2 •

V2-i -00

Funkcja charakterystyczna rna nastepujqcs wlasnosci:

<pet) =

10 <pc 0) = 1. Istotnie

<p(0) = E(eO) = E(l) = 1.

20 I <p( t) I $ 1. Istotnie

1<p(t)1 = 1[:00 eitxf(x)dxl $[:00 leitxlf(x)dx $[:00 f(x)dx = 1.

52

___________________ 1. Prawdopodobieiistwo

30 ep( -t) = ep(t). Wynika to z rownosci e-itx = (eitx).

40 Jezeli ep(t) jest funkcja charakterystyczna zmiennej losowej X oraz zmienna Y = aX + b, to funkcja charakterystyczna epl(t) zmiennej Y

rna postac

'tb

epl(t) = e' ep(at).

Rzeczywiscie

epl(t) = E (eitY) = E (eit(aX+b») = E (ei(ta)X . eitb) = eitbep(at).

Zatem, gdy zmienna Y rna rozklad normalny N (m, (1), wowczas jej funkcja charakterystyczna rna postac

50 Funkcja charakterystyczna sumy dwu zmiennych niezaleinych X, Y jest rowna iloczynowi funkcji charakterystycznych poszczegolnych zmiennych

epX+y(t) = epx(t)· epy(t).

Istotnie

epX+y(t) = E (eit(X+Y») = E (eitXeitY) =

E (eitX) E (eitY) = epx(t)· epy(t).

Zastosowania funkcji charakterystycznych

J ezeli znamy funkcje charakterystyczn~ ep( t) zmiennej losowej X, to mozemy miedzy innymi obliczyc wartosc oczekiwana oraz wariancje zmiennej X.

Zauwazmy, ie dla zmiennej typu ciaglego mamy

J+OO ,

cp( t) -00 e= f( x )dx,

ep'(t) i [: xeitx f(x)dx,

J+OO ,

ep"(t) - -00 x2e,tx f(x)dx.

Zatem

ep'(O) = iE(X), ep"(O) = _E(X2).

1.9. Funkcja charakterystyczna ------ _

53

St,!:d mamy

E(X) VeX)

= ~ep'(O) = -iep'(O),

~

[ep'(oW - ep"(O).

Podobnie mamy dla funkcji typu skokowego. Dla przykladu, gdy X rna rozklad d wumienny - Bernoulliego

wowczas

St~d

ep'(t) = n (peit + qr-1 peit . i,

ep' (0) n . p . i,

ep"(t) n· r i {(n - 1) (peit + qr-2 pie2it + (peit + qr-1 ieit} ,

ep"(O) = -np(np + q).

Zatem

E(X) VeX)

~ep'(O) = n· p,

~

[ep'(OW - ep"(O) = _n2p2 + np( np + q) = n . P: q.

Uwaga. Z definicji funkcji charakterystycznej ep(t) widac, ie jest ona wyznaczona jednoznacznie przez jej rozklad - g~stose rozkladu,

Moina pokazac tez, ie funkcja charakterystyczna ep(t) wyznacza jednoznacznie rozklad - dystrybuante danego rozkladu.

Rozwazmy zmienna losowa X 0 gestosci f(x) = ~e-ixi. Funkcja charakterystyczna ep wyraza sie wzorem

! J+oo eitxe-Ixldx = ! JO e(it+1)xdx +! roo e(it-l)xdx =

2 -00 2 -00 2 fo

e(it+1)x 10 e(it-l)x 1+00 1 (1 1)

2( it + 1) -00 + 2( it - 1) 0 = 2" it + 1 - it - 1 =

1

ep(t) =

=

t2 + i

54

___________________ 1. Prawdopodobienstwo

St,!!d

"() 2(t2 - 1) c.p t = (t2 + 1)3 .

-2t c.p'(t) = (t2 + 1)2'

Zatem

E(X) = 0,

VeX) = 2.

1.10

Prawa wielkich liczb

Zdarzenia losowe wykazuja pewna prawidlowosc w czestosci wystepowania, gdy mamy duz,!! liczbe doswiadczen.

Jezeli rzucamy moneta 100 razy, to mozemy oczekiwac, ze cz~stosc (prawdopodobieristwo) otrzymania "orla" bedzie bliska 1/2. Jezeli rozwazac bedziemy 1000 rzutow, to z jeszcze wieksza pewnoscia mozemy oczekiwac, ie prawdopodobiefistwo praktyczne bedzie 1/2.

Prawidlowosc ta jest wyrazona przez twierdzenia znane jako prawa wielkich liczb.

Wpierw rozpatrzmy tak zwana nierownosc Czebyszewa, na ktorej opieraja si~ dowody tych twierdzeri.

Twierdzenie 1.14 (Nierownosc Czebyszewa) Jezeli X jest zmienrui 10- souia 0 skoticzonej wariancji VeX), to dla dowolnego e > 0 zachodzi nieroui-

nose

P (IX - E(X)I ~ c) ~ V(;),

c

nazywana nieroumosciq Czebyszewa.

Dowod, Dowod przedstawimy dla zmiennej X typu ciaglego 0 dystrybuancie F( x). Mamy wtedy

P(IX - E(X)I ~ c) = P(X ~ E(X) - c) + P(X ~ E(X) + c) =

r:: 1+00

dF(x) + dF(x).

-00 E(Xl+e

Dla x nalezacych do przedzialow calkowania mamy Ix - E(X)I ~ club inaczej Ix-~(X)I ~ 1 i dlatego

c: 1+00 r: t:

dF(x) + dF(x) = f(x)dx + f(x)dx ~

-00 E(X)+e -00 E(Xl+e

jE(Xl-e [x - E(X)J2 1+00 [x - E(X)]2

< 2 f(x)dx+ 2 f(x)dx ~

-00 e E(X)+e e

< 12j+00[x _ E(X)]2f(x)dx = V(;).

c -00 c

1.10. Prawa wielkich liczb ------------------

55

St<):d otrzymujemy z<):dan<): nierownosc. To konczy dowod.

Z nierownosci tej wynika, ze przy ustalonym e > 0, im mniejsza jest wariancja VeX), tym mniejsze jest prawdopodobieristwo, ze zmienna losowa X rozni sie od swej wartosci przecietnej E(X) wiecej niz 0 c. Jest to zgodne z faktem, ze wariancja VeX) jest miara odchylenia wartosci zmiennej losowej X od jej wartosci przecietnej,

Mozemy teraz przedstawic i udowodnic jedno z twierdzeii znanych jako prawa wielkich liczb.

Twierdzenie 1.15 (Twierdzenie Czebyszewa) Jeieli X},X2, ... jest ciqgiem zmiennych losowych parami niezaleinych, ktorych uiariancje sc uispolnie ograniczone, to znaczy istnieje stala C, taka ze

V(Xi) < C, i = 1,2, ... ,

to dla dowolnej liczby e > 0 zachodzi rOwnosc:

lim P (IXI + X2 + ... +_:~2: _ E(XI) + E(X2) + ... + E(Xn) I < c) = 1.

n__.oo 7! n

Dowod, Polozmy

Xn = Xl + X2 + ... + Xn n

Z nierownosci Czebyszewa dla Xn wynika, ie dla kazdego c > 0 mamy

lub

(- - ) V(Xn)

P IXn - E(Xn)1 < c ~ 1 - c2 •

Wykorzystujac wlasnosci wartosci oczekiwanej E(X) i wariancji VeX) dla sumy zmiennych niezaleinych, mamy

Zatem

(- - ) V(Xn) C

P IXn - E(Xn)1 < c ~ 1- 2 ~ 1- -2·

c ne

Przechodz<):c do granicy przy n -+ 00, otrzymujemy:

lim P (IXn - E(Xn)1 < c) ~ lim (1 - ~2) = 1.

n__.oo n-oo nc

56

___________________ 1. Prawdopodobienstwo

Poniewaz prawdopodobieristwo jest zawsze mniejsze od jednosci, wiec z tych nierownosci otrzymujemy rownosc

lim P (IXn - E(Xn)1 < c) = 1.

n--+oo

Uwaga. Zwrocmy uwage, ie 0 zmiennych losowych Xn nie zakladamy nic poza ograniczonoscia wariancji V(Xn).

Twierdzenie 1.16 (Twierdzenie Bernoulliego) Niech X bedzie liczba sukcesou: w serii n-doswiadczen niezaleinych (w schemacie Bernoulliego) i p jest pttnndopodobienstuiem sukcesu w kaidym dosunadczeniu. Wtedy dla dowolnego c > 0 mamy

Dowod, Rozwaimy zmienna Yn = ~ . Wtedy

1 1

= -E(X) = -np = p,

n n

2_V(X) = npq = pq < 1.

n2 n2 n

Zatem na mocy Twierdzenia Czebyszewa

lim P(IYn - E(Yn)1 < c) = lim P (IX - pi < c) = 1.

n--+oo n--+oo n

1.11 Twierdzenia centralne

W wielu praktycznych zagadnieniach techniki, fizyki, biologii, demografii itp. bardzo czesto mamy zjawiska 0 rozkladzie normalnym. Do pewnego czasu uwaiano, ie rozklad normalny jest jedynym rozkladem dajacym dobre przybliienie rozkladow empirycznych (doswiadczalnych). Obecnie wiadomo, ie istnieja tei inne rozklady teoretyczne przyblizajace pewne rozklady empiryczne. Rozklad normalny wystepuje jednak najczesciej.

WyjaSnienie tego faktu moina znalezc przez tak zwane twierdzenia centralne, ktore podaja warunki na to, aby zmienna losowa miala rozklad normalny lub bliski rozkladowi normalnemu.

Rozwaimy ciag Xk zmiennych losowych 0 jednakowym rozkladzie. Niech

1.11. Twierdzenia centralne

---------------------

57

Dla zmiennej losowej

mamy

E(Yn) = n· m, V(Yn) = n. u2•

Oznaczmy zmienn a standaryzowan<!: zmiennej Yn przez Zn, kladac

Zn = Yn - n . m = _1_ n

uvn uvn {;(Xk - m).

Wtedy

1 n

V(Zn) = nu2 L V(Xk) = 1.

k=l

~,:ierdzenie 1.17 (:rwier~zenia centralne Lindeberga-LevY'ego) Je(~(::) :2;,;. i/(~zm) ~nni)mz losowymi ni~zalei~ymi 0 tym samym rozkladzie

, k - a ,to rozklad zmiennej losowej

Z - 1 ~(X Yn - n . m

n - r.:: LJ k - m) = --=--

uyn k=l uvn

dqiy do rozkladu normalnego standaryzowanego, to znaczy

lim pea < z, < b) = _1_1b e-~z2dz

n--+oo V2i a •

~:;:~;~r~:Zystkie zrnienne losowe (Xk - m) maja t~ sama (wspolna) funkcje

1 . Y yczna <Pn(t), a zatem funkcja charakterystyczna II'J (t) zmi . osoweJ Zn rna postac Tn miennsj

<Pn(t) = [<PI(_t_)]n Uvn

~aYlicz~y p.ocz<!:tkowe wyrazy rozwiniecia funkcji <PI(t) w szereg potegowy

Uwazrny, ze 't: •

<PI (0) = <p~(0) = <p~(0)

E(I) = E(eO) = 1, iE(Xk - m) = 0,

-E((Xk - m]2) = -V(Xk) = _u2.

Zatern

58 -- 1. Prawdopodobienstwo

. . 0(t2)

gdzie hm-- = 0, wobec tego t-+O t2

i dla cpn (t) mamy

CPn(t) [1 - ~: + 0 C~) r

lncpn(t) = nln [1- ~: + 0 C~)] .

Korzystajac z rozwiniecia funkcji In(l- u) w szereg potegowy 1 2

In(l- u) = -u - 2"u - ... ,

t2 (t2) .

przy u = 2n + 0 n otrzymuJemy:

Zauwazmy, ie dla ustalonego t zachodzi rownosc

o (~) t2

= lim = 0,

n ..... oo .e.

n

a zatem

1 2 lim [lnCPn(t)] = --2t

n--+-oo .

lub rownowainie

. _lt2

cp(t) = lim CPn(t) = e 2 •

n ..... OO

Pokazalismy, ze granica zmiennej losowej Zn rna funkcje charakterystyczn~ cp(t) rowna funkcji charakterystycznej rozkladu normalnego standaryzowa-

nego, co konczy dowod.

Twierdzenie 1.18 (Twierdzenie centralne Lapunowa) Niech Xl, X2,··· bedzie ciqgiem zmiennych losowych niezaleinych 0 dow~lnyc~ rozkladach mejqcych ekoiiczone momenty do rz~du trzeciego wlqczme. Niecli mk, erk b~dq

1.12. Elementy teorii korelacji _

59

odpowiednio uiartoscia oczekiuxmq i odchyleniem standardowym zmiennej Xk. Oznaczmy

B2 E (IXk - mkI3), k = 1,2, ... ,

Wn = \jBr+B~+ ... +B~, n= 1,2, ... ,

Verl + er~ + ... + er~,

n = 1,2, ...

Jeieli

li w,

m -C =0,

n--+oo n

to dla zmiennej

ma mtejsce rownosc

. 1 1b 1 2

lim pea < Zn < b) =~ e-2"Z dz.

n .... oo y 211" a

Twierdzenie to jest uogolnieniem poprzedniego twierdzenia na przypadek, gdy zmienne Xk maja rozne rozklady.

1.12 Elementy teorii korelacji

Regresja typu pierwszego

W wielu zagadnieniach praktycznych zachodzi koniecznosc jednoczesnego badania danej populacji generalnej ze wzgledu na dwie cechy X oraz Y. Zaleznosci pomiedzy X i Y na ogol nie s~ funkcyjne i ulegaja wplywom a charakterze losowym. W celu uchwycenia zaleznosci pomiedzy X i Y wprowadza sie tak zwane linie regresji.

Rozwazmy dwuwymiarowa zmienna losowa (X, Y). Zalozmy, ze dla kazdej wartosci zmiennej losowej Y istnieje warunkowa wartosc przecietna E(XIY = y). Jest ana pewna funkcja zmiennej y:

E(XIY = y) = ml(y).

(1.1)

Rownanie

nazywamy rownaniem regresji typu pierwszego zmiennej X wzgledem zrniennej Y.

60

___________________ 1. Prawdopodobieiistwo

Analogicznie zalozrny, ze dla kazdej wartosci zmiennej X istnieje warunkowa wartosc przecietna E(YIX = x). Jest ona pewn~ funkcja zmiennej x:

E(YIX = x) = m2(x).

(1.2)

Rownanie

nazywamy rownaniem regresji typu pierwszego zmiennej Y wzgledem zmiennej X.

Obrazem geometrycznym zaleznosci (1.1) i (1.2) s~ pewne krzywe na plaszczyznie xOy. Nazywamy je krzywymi regresji pierwszego rodzaju. Z przyjetego okreslenia widac, ze na krzywej regresji zmiennej X wzgledem zmiennej Y "leza" warunkowe wartosci przecietne zmiennej losowej X, gdy Y przybiera dana ustalona wartosc y. Analogicznie na krzywej regresji zmiennej Y wzgledem zmiennej X "lez~" warunkowe wartosci przecietne zmiennej Y, gdy X przybiera dana ustalona wartosc x.

N a ogol linia regresji typu pierwszego zmiennej X wzgledem zmiennej Y nie pokrywa sif;l z linia regresji zmiennej Y wzgledem zmiennej X. Jezeli zmienne X, Y spelniaja ustalona zaleznosc liniowa

Y = aX +b,

to wartosciom zmiennej podwojnej (X, Y) odpowiadaja punkty prostej

y = ax + b.

Wtedy obie krzywe regresji pokrywaja sie z t~ prosta, Jezeli zmienne X, Y s~ niezalezne, to

ml(y) = E(XIY = y) = E(X)j ml(x) = E(YIX = x) = E(Y).

Rownania linii regresji maja postac

z = E(X), y = E(Y),

s~ wiec odpowiednio prostymi rownoleglymi do osi ukladu xOy przecinajacymi sif;l w punkcie (E(X),E(Y)).

Krzywe regresji maja pewn~ bardzo wazna wlasnosc minimalnosci.

Mozna j~ przedstawic w formie nastepujacego twierdzenia:

Twierdzenie 1.19 Wartosc przecietna kwadratu odchylenia zmiennej losowej Y od zmiennej u(X) jest najmniejsza, gdy funkcja u(x) pokrywa si~ z funkcjq m2( x) i podobnie wartosc przecietna kwadratu odchylenia zmiennej

1.12. Elementy teorii korelacji _

61

losow~j X od zmiennej v(Y) jest najmniejsza, gdy funkcja v(y) pokrywa sie z funkcJq ml(Y)· Fakty te tnozna zapisac nastepujqco:

min E [(Y - u(X))2]

u(x)

min E [(X - v(y))2]

v(y)

= E [(Y - m2(X))2] , = E [(X - ml(y))2] .

Szkic dowodu. Niech (X, Y) bedzie zmienna losowa typu ciaglego 0 gestosci rozkladu f(x,y). Wtedy

E[(Y-U(X))2] = i:oo i:oo(y-u(x))2f(x,y)dXdy=

= i:oo {i:oo(y-U(X))2f(x,y)dY}dX.

Dla kazdego ustalonego x funkcja f( x, y) = f(ylX = x) jest (rozkladem) g~stosci~ prawdopodobieiistwa zmiennej YIX = x. Dlatego calka w nawiasie "klamrowym" dla kazdego ustalonego x jest najmniejsza, ale nieujemna, gdy jest rowna wariancji zmiennej warunkowej YIX = x, a wiec gdy

u(x) = m2(x) = E(YIY = x).

To koiiczy dowod pierwszej rownosci. Druga dowodzimy analogicznie.

Regresja typu drugiego

Zostalo wiec wykazane, ze krzywe regresji pierwszego typu, majace rownania y = m2( x) oraz x = ml (y), czynia zadosc pewnym warunkom minimalnosci, a wiec, ze funkcjonal

(1.3)

okreslony na z biorze wszystkich funkcji u( x) osiaga minimum dla u( x) = m2(X).

W praktyce czesto poszukujemy minimum funkcjonalu (1.3) nie na zbiorze wszystkich funkcji, lecz wsrod funkcji nalezacych do pewnej ustalonej klasy fUnkcji, na przyklad dla funkcji liniowych lub wielomianow ustalonego stopnia lub inaczej wyroznionych. Wtedy krzywa

y = p(x),

dla ktorej funkcjonal (1.3) osiaga minimum w wybranej klasie funkcji nazyWamy Iinia regresji drugiego typu zmiennej Y wzgledem zmiennej 'X.

62

___________________ 1. Prawdopodobieristwo

Szczeg61nie wazny przypadek to ten, gdy ograniczymy si~ do funkcji liniowych. Wtedy krzywe regresji drugiego typu s<l prostymi.

Wsrod wszystkich prostych na plaszczyznie xOy znajdziemy taka prosta

y = ax + (3,

(1.4)

ze

E [(Y - aX - b?] ~ E [(Y - aX - (3)2] ,

dla dowolnej prostej y = ax + b. Presta (1.4) nazywa si~ prosta regresji drugiego rodzaju zmiennej Y wzgledem zmiennej X.

Podobnie prosta

x = ,y + 0

(1.5)

realizujaca warunek

dla dowolnej prostej y = ax + b, nazywa si~ prosta regresji drugiego rodzaju zmiennej X wzgledem zmiennej Y.

W spolczynniki prostych regresji wyznaczmy za pomoca moment ow zmiennej (X, Y).

Polozmy

ml,O = E(X),

mO,l = E(Y),

O"~ = J-LO,2 = E[(Y - mo,d2],

J-Ll,l = E[(X - ml,O)(Y - mO,l)]

i zalozmy, ie odchylenia standardowe 0"1 = VJ.i2:D > 0, 0"2 skoticzone. Wtedy mamy

VJiO,2 > 0 s<l

E [(Y - aX - (3)2] =

E [(Y - mO,l - a(X - ml,O) + mO,1 - aml,O - (3)2] =

= E [(Y - mo,l)2 + a2(X - ml,o)2 + (mo,1 - aml,O - (3)2+ +2a(X - ml,O)(Y - mo,d + (mO,1 - aml,O - (3)(Y - mo,d-2a(mO,1 - aml,O - (3)(X - ml,O)] =

J-Lo,2 + a2J-L2,o - 2aJ-Ll,l + (mO,1 - aml,O - (3)2 =: q(a, (3). (1.6)

1.12. Elementy teorii korelacji _

63

Ab~ wyzn~czyc minimu.m ostatniego wyraienia, potraktujemy je jako funkcje dwoch zmiennych a, (3 1 zastosujemy st and ardowa metode wyznaczania ekstremow. Punkt stacjonarny wyznaczamy z rownari:

{ Oq~~(3) =

oq(a,(3) 0(3

2aJ-Lz,o - 2J-Ll,1 - 2ml,O( mO,1 - aml,O - (3) = 0,

-2(mO,1 - aml,O - (3) = o.

J-Ll,1 0"2

-=p-,

J-Lz,o 0"1

ml,oJ-Ll,1 0"2

mo,1 - = mO,1 - P-ml,O,

J-L2,O 0"1

(1.7)

gdzie

J-Ll,1

P= - (1.8)

0"10"2

nazywamy wsp61czynnikiem korelacji zmiennych X, Y. Dla p danego przez (1.8) a, (3 s'!; wartosciami, przy ktorych w (1.6) otrzymujemy minimum.

Pod~bnie .wspolczynniki prostej regresji typu drugiego zmiennej X wzgledem zmiennej Y s'!; odpowiednio rowne:

(1.9)

Z~tem ~a mocy zaleznosci (1.7), (1.8) i (1.9) proste regresji (1.4) i (1.5) maja rownama:

{ y-mo,1 = p;:(x-m1,o),

10"2

y - mO,1 = p 0"1 (x - m1,O).

Proste regresji - jak widac z (1.10) - przechodza zawsze przez punkt (ml,O, mO,l). Jeieli p2 = 1, to P = 1/ pi proste regresji pokrywaja sie.

. ~eieli p = 0, to z (1.10) wynika, ie proste regresji s'!; prostopadle wzgledem slebIe i maja postac

(1.10)

y = mo,t. x = ml,O'

laUwaimy, ie jeieli linia regresji typu pierwszego jest prosta, to pokrywa sie ~ p:o.st'!; regresji typu drugiego. Nie zawsze prosta regresji typu drugiego musi lyc linia regresji typu pierwszego.

64

____________________ 1. Prawdopodobieiistwo

Wykorzystujac (1.7) i (1.9), znajdujemy wartosci minimow:

min E [(Y - aX - ,8)2] min E [(X - aY - ,8)2]

Wsp6lczynnik korelacji

Wspolczynik korelacji p, 0 ktorym juz byla mowa, wyraza sie wzorem

/11,1 E[(X - m1,O)(Y - mo,d]

p = 0"10"2 = jE[(X - m1,o)2]jE[(Y - mo,d2(

Latwo zauwazyc, ze

-1 < p < 1.

Wlasnosci wspolczynnika korelacji p s,!: zwiazane z charakterystyka rozkladu zmiennych (X, Y) i scisle si~ l'!:cz'!: z prostymi regresji typu drugiego, co bylo pokazane przed chwila,

Liczby 0"~(1- p2), 0";(1- p2), wartosci minimow (1.11) S,!: nazywane wariancjami resztkowymi odpowiednio zmiennych Y i X.

Zawazmy, wykorzystujac (1.11), (1.7) i (1.9), ze stosunek wariancji zrnien-

nej

Y - aX -,8

do wariancji zmiennej Y jest rowny 1- p2 i podobnie stosunek wariancji zrniennej

X -1'Y - 0 do wariancji zmiennej X jest tez rowny 1 _ p2.

Wynika stad, ze:

1 ° Kiedy wspolczynnik korelacji p = 0, to znaczy gdy X, Y s,!: nieskorelowane, wowczas wariancji zmiennej Y nie mozna pomniejszyc przez odjecie od Y funkcji liniowej zmiennej X, i odwrotnie: wariancji zmiennej X nie mozna pomniejszyc przez odjecie funkcji liniowej zmiennej Y. W szczegolnosci ma to miejsce, gdy zmienne X, Y s,!: niezalezne.

2° Jezeli p :/; 0, to rozn'!: od zera wariancje zmiennej Y mozna zmniejszyc przez odjecie od Y pewnej funkcji liniowej zmiennej X, i odwrotnie: wariancje zmiennej X mozna pomniejszyc przez odjecie od X pewnej funkcji liniowej zmiennej Y. Mowimy w tym przypadku, ze zmienne X,

1.12. Elementy teorii korelacji _

65

Y s<l: skorelowane, dodatnio skorelowane dla p E (0,1), i ujemnie skorelowane dla p E (-1,0).

Zmniejszenie wariancji moze bye tym wieksze, im wieksza jest wartose Ipl.

3° Jezeli p2 = 1, to wariancje resztkowe s4 rowne zeru. Wtedy prawdopodobieiistwo, ze zmienne X, Y laczy pewna zaleznosc liniowa, to znaczy istnieja liczby a, b, takie ze X = aY + b .lub Y = aX + b, jest rowne jednosci:

3a,bP(Y = aX + b) = 1.

Widac stad, ze wspolczynnik p korelacji mozna traktowac jako pewn4 (probablllstyczna) miare stopnia liniowosci zmiennych X i Y. Im wartosc Ipl E (0,1) jest wieksza, tym stopieii liniowosci jest wiekszy.

Szacowanie parametr6w prostej regresji

Wyznaczenie dokladnych wartosci parametrow prostych regresji typu drugiego jest mozliwe, gdy znamy funkcje gestosci prawdopodobieristwa I( x, Y) populacji generalnej (X, Y). W praktyce mozemy zazwyczaj dysponowac tylko danymi z proby. Znamy wiec zwykle uklady (Xi, Yi), Pi,i lub tylko (Xi, Yi), i = 1,2, ... , n, i przypuszczamy, ze wszystkie wybory s4 jednakowo prawdopodobne. Jezeli na podstawie tych danych chcemy przyblizyc parametry a, ,8 prostej regresji Y = ax + ,8, to potrzebne nam wielkosci mozemy przyblizyc, zastapic nastepujacymi wielkosciami obliczonymi z proby:

mI,O ~ x =
mO,l ~ Y =
0"2 '" s2
1 '" 1
0"2 '" s2 =
2 '" 2
0"1,1 ~ Sl,l 1 n

- '"' X·

L.... I,

n i=l

1 n

-LYi,

n i=l

.!_ t(Xi - x)2 = .!_ txl- x2 ,

n i=1 n i=l

1 n 1 n

- L(Yi - y)2 = - LY; _ y2 ,

n i=1 n i=l

1 n 1 n

- L(xi - X)(Yi - Y) = - L XiYi - xy.

n i=l n i=l

66

____________________ 1. Prawdopodobieristwo

Przyblizenie wsp6lczynnika korelacji rna postac

n

E(x; - X)(Yi - y)

811 i=1

P >:::. r = _'- = --;=======--;======

8182 n n

E (Xi - x)2 . E (Yi - y)2

i=1 ;=1

Parametry przybliionej prostej regresji moiemy wyznaczyc ze wzorow:

82 Q>:::.r-, 81 81 i>:::.r-, 82

same zas proste maja postac

y-y

y-y =

f3 - 82_

>:::. Y - r-x, 81

.<: _ 81_

u >:::. X - r-y,

82

82 _)

r-(x - X ,

81

182 _

--(X-X).

r 81

Proste te maja w przybliieniu wlasnosci podobne do wlasnosci dokladnych prostych regresji.

Rozdzial2

Statystyka

2.1 Elementy statystyki opisowej

Statystyka matematyczna zajmuje si~ opisywaniem i analiza zjawisk masowych za pomoca metod rachunku prawdopodobieristwa. Celem badari statystycznych jest poznanie prawidlowosci ilosciowych i jakosciowych w rnasowych zjawiskach losowych (przypadkowych) i opisywanie ich za pomoca liczb.

Badane zbiory nazywamy populacjami statystycznymi. Badac mozna wszystkie elementy danej populacji statystycznej, zwanej tei populacja generalna, alba tylko ich cz~sc, zwana probka statystyczna lub krotko probka.

W pierwszym przypadku badanie jest kompletne i nie rna potrzeb uiywania element ow rachunku prawdopodobieiistwa. W drugim mowimy, ie badania SC): czesciowe. Zadaniem statystyki jest wnioskowanie 0 wlasnosciach calej populacji na podstawie informacji 0 tych wlasnosciach element ow pewnego skoriczonego podzbioru tej populacji, zwanego probka. Probka Z1 powinna stanowic reprezentacje populacji Z w tym sensie, ie cz~stosc wystepowania w probce kaidej z badanych cech nie powinna znacznie roinic si~ od czestosci wystepowania tych cech w populacji generalnej. Aby to osiagnac, elementy probki Z1 zwykle losujemy sposrod elementow zbioru Z. Otrzymany w ten sposob zbior nazywamy probka losowa, Pr6bka losowa prosta n-elementowa to taka, w ktorej kaidy element populacji generalnej rna takie same szanse wylosowania. Statystyka opisowa zajmuje sie wstepnym opracowaniem probki,

67

68

____________ ---------- 2. Statystyka

Szeregi rozdzielcze

Niech Xl, X2, ••• , Xn bedzie n-elementow~ probka prosta 0 zadanych wartosciach. Rozatepem badanej cechy X w tej probce nazywamy licz be

R = Xmax - Xmin,

gdzie Xmax, Xmin oznaczaja, odpowiednio, najwieksza i najmniejsza llczbe w ci~gu Xk. Przy wiekszej licznosci probki (zwykie od 30 wzwyi), w celu ulatwienia analizy, wartosci probki grupuje sie w klasach, przedzialach zwykie jednakowej dlugosci, przyjmujac upraszczajace zalozenia, ie wszystkie wartosci w danej klasie s~ identyczne ze srodkiem klasy. Jezeli R jest rozstepem probki, k zaS liczba klas, to jako dlugosc klasy przyjmujemy liczbe b ~ ~, tak jednak, ieby b . k ~ R. Punkty podzialu na klasy ustala sie zwykle z dokladnoscia nieco wieksza niz ta, z ktora wyznacza si~ wartosci w probes. Formalnie mozna przyj~c podzial na klasy punktami

Xmin ~ a, a + b, ... , a + kb ~ Xmax,

gdzie b ~ ~ jest tak dobrane, zeby a :::; Xmin, b ~ Xmax i ieby srodki klas Xi byly w miare proste (dane z pewna ustalona dokladnoscia), Xi ~ a.+ (i - 1/2)b. Liczbe wartosci probki zawartych w i-tej klasie nazywamy licznoscia, (liczebnoscill) i-tej klasy i oznaczamy symbolem ni· Oczywiscie

k

1::n; = n. ;=1

Jeieli licznosc n pr6bki Xl, ... , Xn kwalifikuje si~ do podzialu na klasy, to dokonuje si~ grupowania, w wyniku czego otrzymuje si~ szereg rozdzielczy, kt6ry stanowia pary liczb: srodki kolejnych klas oraz ich licznosci ni, i =

1,2, ... ,k.

Sposob, w jaki licznosci ni s~ rozlozone w poszczeg6lnych klasach, nazy-

wamy rozkladem licsnosci badanej cechy przy danej liczbie k klas.

Otrzymany szereg mozna przedstawic graficznie w postaci tzw. histogramu, N a osi poziomej zaznacza sie srodki klas, na osi pionowej licznosci • ni. Na osi pionowej mozna, rowniez, odkladac inne wielkosci, np. czestosci n;fn, wyrazane czesto w procentach ~100%;

n = 45, nl = 5, n2 = 10, n3 = 15, n4 = 10, ns = 5,

L ni = .!. L ni = 1.

n n

t~cz~c punkty (Xl - b, 0), (Xi, ~), i = 1,2, ... , k, (Xk + b, 0), otrzymamy tak zwana Iamana czestosci.

2.1. Elementy statystyki opisowej _

69

1

, '---, ,

r---,

,

Rys. 2.1. Przyklad graficznego przedstawienia szeregu rozdzielczego

Na Rys. 2.1 zostaly zaznaczone srodki klas X· oraz czestosci !!i

I "t: n·

CZ,~~tosc sk?mulowanq otrzymujemy, dodajac do czestosci danej klasy czestosci wszystkich poprzednich klas. Cz~stosc skumulowana jest odpowiednikiem dystrybuanty.

Przyklad szeregu rozdzielczego, n = 150:

Numer Przedzial Srodek Licznosc Cz~stosc Cz~stosc
klasy klasowy klasy klasy klasy skumulowana
Xi n· n;/n 2:} I xl/n
,
1 120 124 122 20 2/15 2/15
2 124 128 126 30 3/15 1/3
3 128 132 130 50 1/3 2/3
4 132 136 134 10 1/15 11/15
5 136 140 138 15 1/10 5/6
6 140 144 142 25 1/6 1 Liczby charakteryzujace szereg rozdzielczy

!ze.re~ .rozdzie~czy ~ozna opisac przez podanie pewnych Iiczb, z kt6rych naj.azllleJsze to sredma arytmetyczna wartosci danej cechy oraz warianCJa.

Jezeli badana cecha przyjmuje wartosci

Xl, X2, ... ,Xk z odpowiadaj~cymi im Iicznosciami

70

2. Statystyka

-----------------------

oraz

n = nl + n2 + ... + nk,

to srednia arytmetycznC): (wartosc oczekiwana) okreslamy nastl;]pujC):co:

_ - 1 k

_ nlxl + n2x2 + ... + nnXn = - L nixi.

x = n n i=1

k ,., edni a x moze bye wyrazona za pomoca nastl;]pujC):cego,

Latwo po azac, ze sr

wygodnego wzoru:

dzie Xo jest dowolna liczba rzeczywlsta- ..

g W st pujace tu wielkosci Xi moga bye wartosciami zmiennej l~soweJ X lub

srod~'::i klas, a ni licznosciami klas danego szer~gu rozdzlelczego.

Wariancj~ 82 danej cechy X okreslamy wzorami:

1 k _ 2 1 ~ -2 -2

82 = - L ni (Xi - X) = - L... nixi - x .

ni=1 ni=1

Liczbe 8 nazywamy odchyleniem standardowym.

Przyklad 2.1 Obserwowano przez ty.d~ien (7 dny cisn!enie_ atmos~eryczne w danej miejscowosci i zapisywano wymh w postaci tabelz (n - 7, k - 4).

X =

Cisnienie Xi

Licznosc ni

8 =

Jezeli przyjmiemy Xo = 755, to

14

X = 755 + ~(-2 + 2·0 + 3·3 + 7) = 755 +"7 = 757,

a przy Xo = 757 mamy

X - 757 + ~(-4 - 2 ·2+ 3 . 1 + 5) = 757 + 0 = 757.

- 7

2.1. Elementy statystyki opisowej _

71

Przyklad 2.2 Niech szereg rozdzielczy bedzie zadany iabelq na stronie 6g (n = 150, k = 6). Wtedy

1 6 1

- L nixi = -(20· 122 + 30 . 126 + 50 . 130 + 10· 134 +

n i=1 150

15. 138 25. 142) = 19680 = 1968 = 656 = 131 2.

+ + 150 15 5 '

Kladqc Xo = 130, mamy

1 6 1

X = Xo + N L ni(xi - xo) = 130 + 150 (20 . (-8) + 30 . (-4)+

i::1

180 6

+50·0+ 10·4 + 15·8 + 25 . 12) = 130 + 150 = 130 + [; = 131,2,

82 1!0 (20· (-9,2)2 + 30· (-5,2)2 + 50· (-1,2)2 + 10· (2,8)2+

6264

+15· (6,8)2 + 25 . (10,8)2) = 150 = 41,76

8 = 6,462 ...

Elementy teorii pr6b, pojecie pr6by

Zbior wszystkich element ow , ktore poddajemy obserwacjom statystycznym, nazywamy populacja gener alna. Elementy tej populacji badamy ze wzgledu na interesujaca nas ceche X, ktora traktujerny jako zmienna Iosowa.

Zwykle trudne lub wrecz niemozliwe jest pelne zbadanie calej populacji generalnej. Dlatego wykonuje sie badania czesciowe. Z populacji generalnej losujemy wiec n-elementow i obserwujemy wartosci Xb X2, ... , Xn badanej cechy X. Losowanie odbywa sie tak, ze dla kazdego elementu danej populacji generalnej istnieje ta sama szansa wylosowania (po wybraniu danego elementu i odczytaniu wartosci Xi danej cechy X zwracamy element z powrotem do ponownego losowania lub liczba elementow populacji generalnej jest tak duza, ze losowanie nawet bez zwracania nie zmienia szansy wylosowania pozostalych elementow).

Uklad liczb (x}, X2, ... , xn) stanowi probe losowa.

Jest ona realizacja zmiennej losowej n-wymiarowej (XbX2, ... ,Xn).

W szystkie zmienne Xi maja ten sam rozklad co cecha X i sc): niezalezne. Zbior wartosci zmiennej losowej Xi to zbior wszystkich mozliwych wartosci obserwacji i-tego elementu. Liczbe n nazywamy Iicznoscia pr6by.

Pobieranie pr6by moze bye liczne i wtedy opis doswiadczenia musi bye POdany szeregiem rozdzielczym.

72

______________________ 2. Statystyka

Przedzial i poziom ufnosci

Zalozmy, ze badamy populacje generalna ze wzgledu na pewna ceche ilosciow~ X. Zalozmy tez , ze wartosc oczekiwana (przecietna) cechy X, nazywana srednill generalna, jest znana i rowna m, ze rozklad jest normalny oraz rna odchylenie standardowe a.

Rozwazmy probe 0 licznosci n, ktora jest realizacja n-wymiarowej zrniennej losowej (XI. X2, ••• , Xn), i nowa zmienna losowa

- 1

X = -(XI. X2, ••• ,Xn), n

nazywana srednill z pr6by.

Rozklad tej nowej zrnienej X jest tez normalny, 0 tej sarnej sredniej m i odchyleniu standardowym

s = alJ1i.

Wyznaczmy prawdopodobieiistwo a zdarzenia losowego polegajacego na tyrn, ze srednia X lezy w przedziale (al' a2), gdzie at, a2 to dowolne liczby rzeczywiste:

gdzie

T=X-my'7i

a

jest zmienna losowa 0 rozkladzie normalnyrn standaryzowanym,

oraz <P jest funkcja Laplace'a <p(t) = [too e-tv2 dv, ktorej wartosci mozna odczytac z tablic.

Widac z tych przeliczeii, ze liczby ab a2 wyznaczaja jednoznacznie prawdopodobienstwo a. Przedstawione rozumowania mozna wykorzystac do wyznaczania przedzialu (ab a2), w ktorym z zadanym z gory prawdopodobiefistwern a lezy (nieznana) srednia generalna m.

Znajomosc prawdopodobieiistwa a nie wyznacza jednoznacznie liczb tt, t2, gdyz rownanie <p(t2) - <p(tt) = a rna wiele rozwiazaii. Jezeli jednak przyj¥ dodatkowo, ze t2 = -tl = t i poniewaz <p(t) + <p( -t) = 1, wiec rownanie

1 a

<p(t) = 2 + 2'

2.1. Elementy statystyki opisowej _

73

IIlajednoznaczne rozwiazanie, ktore mozna odczytac z tablic funkcji La 1 '

Dl t ki . , . pace a.

a a IeJ wartosci t rnamy wiec

p( X-m ) ( m-X )

-t< alvin <t =P -t< alvin < t =a

lub rownowaznie

P (X - ;- < m < X + ~) = a.

Jezeli x jest srednia z proby, to przedzial

(x- ;-,x+ ;-),

gdzie wartosc t jes: odczytywana z tablicy rozkladu norrnalnego (Tab. 5.3), naz~wamy przedz_'alem ufnosci dla wartosci sredniej, liczbe zas a, wyznaczaHc~ ten przedzlal, nazywamy poziomem ufnosci.

Przyklad 2.3 Dana jest populacja generalna, 0 kiore] wiemy, ie ma rozklad no~malny. N (m_, c:) 0 znanym odchyleniu standardowym a = 30. Na podstawie proby z lzcznoscz n = 100 wyznaczono srednia z proby x - 90 W '

d . I ' ., -r -. yznaczyc

prze zza ufnosci, w ktorym z prawdopodobienstwem a - 0 96 'd' .

. ,. -, znaJ uJe szI(

nzeznana srednia generalna m.

R~zwillzanie. Mamy alvin = 30/VlOO = 3. Z tablic funkcji Laplace'a znajdujemy wartose t, dla ktorei <P(t) - 1 + Q. - 0 98 Wartos t .

• ~ - 2 2 - ,. c a wynosl

t = 2,06.

St,!:d t . a I J1i = (2,054) . 3 = 6,18. Zatem przedzialern ufnoscl jest przedzial (90 - 6,18, 90 + 6,18) = (83,82, 96,18).

Mozemy wiec twierdzic z prawdopodobienstwem a = 0,96, ze srednia generalna m spelnia warunek

83,82 < m < 96,18

lub' '" I'

rownowazme, ze na ezy do przedzialu ufnosci 0 poziomie ufnosci 0,96

m E (83,82, 96,18).

Mozna to tez zapisac nast~puj~co:

P(83,82 < m < 96,18) = 0,96.

74

_____________________ 2. Statystyka

Rozwaimy podobny problem dla wariancji.

Zaloimy teraz, ie badana populacja generalna X rna rozklad normalny N(m, (1), gdzie m i (1 nie S,!: nam znane. Wybieramy losowo probe 0 licznosci n oraz kaid'!: i-t'!: obserwacje traktujemy jako wartosc zmiennej Xi.

W prowadzimy zmienna losowa

_ 1 n

X = -:LXi.

n i=l

Wtedy zmienna losowa

gdzie

rna rozklad X2 0 (n - 1) stopniach swobody.

Znajac wiec rozklad zmiennej X2, moiemy wyznaczyc przedzial ufnosci, to znaczy przedzial, w ktorym z zadanym z gory prawdopodobieitstwem It znajdzie si~ (bedzie lezala) nieznana nam wariancja VeX) = (12 dla populacji generalnej.

W celu wyznaczenia tego przedzialu szukamy przedzialu (x}, X2), takiego

ie

lub rownowaznie

alb 0

P(X2 < Xl) + P(X2 > X2) = 1- It.

Aby jednoznacznie wyznaczyc ten przedzial ufnosci, nalezy dodac jeszcze dodatkowy warunek. Nie mozna teraz zalozyc symetrii wzgledem "zera", gdyz rozklad X2 przyjmuje tylko wartosci dodatnie (z prawdopodobieitstwem roinym od zera). Zazwyczaj ten dodatkowy warunek rna postac

lub rownowaznie

pex2 < Xl) + peX2 < X2) = 1.

L'!:cz'!:c ze soba warunki na Xl i X2, otrzymujemy:

2 1- a

P(X < Xl) = -2-'

2.1. Elementy statystyki opisowej _

75

Z tablic rozkladu prawdopodobienstwa X2 przy k - n 1 odcz t . d

.. ,.. ' - -, y ujemy 0 -

powiednle wartosci Xl 1 X2.

Poniewai zmienna nS2/ (12 rna rozklad X2, wiec warunek

rna postac

( nS2 )

P Xl < -;;2 < X2

lub, dla nieznanego parametru (1,

=a

= a.

W t:n s~oso2b w~znaczamy przedzial ufnosci dla (12, a wiec przedzial, w ktorym wanancja (1 lezy z prawdopodobieitstwem a. Jest to przedzial

(nS2, nS2) ,

X2 Xl

gdzie Xl, X2. s,!: policzone P2oprzednio dla rozkladu X2 0 (n - 1) st~pniach swobody, n Jest zadane, a S policzone z wybranej n-elementowej proby,

Pr~yklad 2.4 Na po~stawie badan proby 25-elementowej wyznaczono odchylenze standard~w~ proby s = v'3. Wyznaczyc przedzial ufnosci, w ktorym z prawdopodobzenstwem a = 0,98 znajduje si" nieznana nam wariancja (12 rozkladu populacji generalnej.

Rozwiqzanie. Warunki na Xl, X2 maja postac

P(X2 < XI) = 1 - ~' 98 = 0,01 P(X2 < X2) = 1 + ~' 98 = 0,99.

W tablicy rozkladu X2 przy k = 24 stopni swobody znajdujemy interesujaes nas wartosci Xl, X2, ktore wynosza

Xl = 10,856,

X2 = 42,980.

Zatem przedzialem ufnosci jest przedzial

( 25 . 3 25 . 3) ( 1 )

42,980' 10,857 ~ 2,7 .

Moi t . , .

~my. 0 rozu~~ec nast~puHco: prawdopodobieitstwo tego, ie zmienna (12

przYJmuJe wartosci z przedzialu (1/2,7), jest rowne 0,98.

______________________ 2. Statystyka

76 2.2 Badania statystyczne

Statystyka matematyczna jest dzialem probabilistyki scisle zwiazanyrn z rachunkiem prawdopodobienstwa. Punkt widzenia statystycznego jest jednak inny. W rachunku prawdopodobieristwa rozwazajac zmienna losowa, zakladamy, ie jej rozklad jest znany. Wykorzystujac ten fakt, wyznacza sie prawdopodobieiistwo r6inych zdarzen.

W statystyce nie mamy (nie zakladamy) zazwyczaj pelnej znajomosci rozkladu zmiennej losowej interpretowanej w praktycznych zastosowaniach jako "cecha" statystyczna element6w badanej (zbiorowosci ) populacji generalnej.

Punktem wyjscia w badaniach statystycznych jest wyb6r (wylosowanie) z calej populacji generalnej skonczonej liczby n element6w i zbadanie ich ze wzgledu na interesujaca nas ceche - zmienna losowa X. U zyskane w ten sposob wartosci Xl, X2, •.• ,Xn badanej cechy X s<l: zaobserwowanymi wartosciami n-elementowej pr6by.

W statystyce opisowej ograniczamy sie do opisu wynik6w przeprowadzonej pr6by bez wyciagania wniosk6w 0 calej populacji. W statystyce matematycznej natomiast, na podstawie wynik6w badania pr6bnego, staramy si~ wyci<l:gn<l:c wnioski dotyczace badanej cechy (zmiennej losowej) w calej populacji generalnej.

Do najwainiejszych form wnioskowania statystycznego naleza:

• estymacja (ocena) nieznanych parametr6w (badz ich funkcji), kt6re charakteryzuja rozklad badanej cechy populacji generalnej,

• weryfikacja (badania prawdzlwosci) postawionych hipotez statystycznych,

• wnioskowanie statystyczne, jako oparte na czesciowej informacji, dostarcza jedynie wniosk6w wiarygodnych a nie absolutnie prawdziwych; wiarygodnych - to jest prawdziwych z pewnym zadanym, moze bliskim jednosci, prawdopodobienstwem,

Estymacja punktowa

Niech rozklad badanej cechy X populacji generalnej zaleiy od nieznanego parametru O. Parametr ten bedziemy szacowali na podstawie n-elementowej pr6by prostej XI,X2, ••. ,Xn.

Funkcje

g(XI, X2, ••• , Xn),

b~d<l:c<l: funkcja pr6by losowej Xl, X2, ••• , Xn, nazywamy statystyka. Statystyka jest funkcja zmiennych losowych, jest tei zmienna losowa majaca swoj

2.2. Badania statystyczne _

77

wlasny rozklad zaleiny od postaci funkcji 9 i od rozkladu zrni h X K .

• '., . lennyc i- azd<l:

st~tys.tYk~ .(}n(XI, X2, ••• , Xn), ktorej wartosci przyjmujemy jako oceny (przy-

blizema) meznanego parametru (), nazywamy estymatorem param t () Otrzyma d tawi li e ru .

n<l: na po s awie .~ea izacji konkretnej pr6by wartosc estymatora

nazywamy .oce~~. (pr~yblizemem) tego parametru. Zrozumiale jest, ie ze wzrostem liCZllOSCI. prob~ ~wi~ksza si~ dokladnosc oszacowania parametru e. Zatem estymator On powuuen spelniac warunek

'Ve>O n1i.~ P (IOn - (}I < €) = l.

Taki estymator On nazywamy estymatorem zgodnym parametru ().

Na ~.rzYklad estymatorem nieznanej wartosci przeci~tnej () = EeX) dla populacji generalnej, dla kt6rej IEeX)1 < 00, jest statystyka

. _ 1 n

(}n = X = - L Xi.

n i=l

Estymatorami zgodnymi ~:<! tei wszystkie estymatory

gdy lim Qn = 1.

n-+co

Estym.ator On nazywamy estymatorem nieobci~zonym parametru 8 jeieli

dla kazdego n mamy ,

EeOn) = ().

Jeieli istniej: .E.(On) =f: (), to On nazywamy estymatorem obciaaonym parametru (), a roznice

Bn((}) = E(On) - ()

obci~zeniem estymatora. Jesli lim B ((}) - 0 t ().

t n-+co n -,On nazywamy esty-

rna orem asymptotycznie nieobci~zonym.

PrzYkl~~ 2.5 Niech cecha X populacji generalnej ma wariancjfC 0'2 skotic;onq, roznq. od zera. Zbadac, czy wariancja empiryczna 82 dla pobranej pr6bki

.1, •• :.' Xn Jest estymatorem obciqionym czy nieobciqionym nieznonei wa-

rzancJz 0'2. 'J

Rozwi~zanie. Wariancja empiryczna 82 moie bye przedstawiona w postaci

1 n n

82 = ;; ~ (Xi - Xr = l ~ [eXi - Jl) + eJl- X)f =

1 ~ 2 2(Jl - X) n

;; ~eXi - Jl) + LeXi - Jl) + eJl- X)2 =

1=1 n ;=1

1 n

= ;;?: (Xi - Jl)2 - ex - Jl)2,

1=1

78

_-------------------- 2. Statystyka

gdzie X = ~ I:i=l Xi oraz E(Xi) = J1, dla i. = 1,2, .. :, n. .

Poniewaz Xi S<!: niezaleznyrni zrniennyrnllosowyrnl 0 tyrn samym rozkladzie

co badana cecha X, wiec

E(Xi) = J1" E (Xi - J1,)2) = E (X - E(X))2) = 0'2

i dlatego

1 n () 0'2 n - 1 2

E(S2) = - L: E (Xi - J1,)2) - E (X - J1,)2 = 0'2 - -; = =t:" .

n i=l

Zatern rozpatrywany estyrnator S2 jest estymatorem zgodnym ob ciazo-

b . . . B (2) 1 2

nym, 0 0 ciazemu n a = -nO' .

wiec estyrnator ten jest asyrnptotycznie nieobci<}:zony.

Estyrnatorern nleobciazonym wariancji 0'2 jest estyrnator

n 1 n ( _)2

s*2 = __ S2 = -- L: Xi - X ,

n - 1 n - 1 i=l

Dla danego pararnetru 0 moze istniec wiele estyrnatorow nieobci<}:zonych Jczeli O~, 8~* s<}: dworna takirni estyrnatorarni nieobci<}:zonyrni parametru

majacymi wariancje

spelniajace warunek

v (8~) < V (O~*) ,

to rn6wimy, ze estymator O~ jest asy~ptotycznie efekty,:niejszy~ es:~ rnatorern pararnetru 0 niz estymator O~*. Ten estymator, ktory rna naJm~e~ sz<}: wariancje, nazywarny estymatorem efektywnym lub najefektywnleJ

szym.

Jezeli f = f(X, 0) oznacza g~stose prawdopodobienstwa zrniennej loso\\,

X (rozkladu pararnetru 0), to

nE [:0 In f(X, o)f

2.2. Badania statystyczne _

79

nosi nazwe (rniary) informacji zawartej w n probce. Wariancja V (O~) spelnia nierownosc:

V(O~)~ 1 2.

nE [loIn f(X,O)]

Jezeli istnieje estyrnator efektywny On parametru 0, to miara efektywnosci nieobci~zonego estymatora O~ nazywarny liczbe

D2 (On) - D2 (O~r

Mamy

0< ef On ~ 1

i rownosc rna ~iejsce jedynie dla estymatora efektywnego.

Estyrnator On nazywamy estymatorem asymptotycznie efektywnym, gdy

lim ef On = 1.

n-+oo

Metody wyznaczania estymator6w I. Metoda najwiekszej wiarygodnosci

Niech badana cecha X ma rozklad zalezny od k nieznanych pararnetr6w 01, .•. ,Ok, ktore chcemy oszacowac (przyblizyd) na podstawie n-elementowej proby prostej. Oznaczmy przez L tak zwana funkcje wiarygodnosci dana wzorem

L = f( X}, 01, ... , Ok) . f(X2, Ob· .. ,Ok) ..... f( Xn, 01, ••• , Ok),

gdzie f( x, 01, ••• ,Ok) oznacza g~stose prawdopodobienstwa cechy typu ciaglego lub funkcje rozkladu prawdopodobieristwa w przypadku cechy typu skokowego. • Met<?da najwiekszej wiarygodnosci polega na tyrn, ze jako estyrnatory ()1.' ••. ,Ok parametrow 01, ••• ,Ok przyjrnujerny te wartosci, dla kt6rych funkcja Wlarygodnosci L przyjmuje wartosc najwieksza. Poniewaz funkcja In L przyj~uje wartosc najwieksza dla tych samych parametrow co funkcja L, wiec zadarue sprowadza sie do !"y~naczen~a rnaksirnurn funkcji In L. Jesli f jest rozniczkowalna, to wartosci fh, O2, ... , Ok maksymalizujace L rnusza spelniac warunki konieczne na ekstrernurn, to znaczy spelniac uklad rownari

olnL

OOi = 0, i = 1,2, ... ,k

80

______________________________________________ 2. Statystyka

nazywany zwykle r6wnaniami wiarygodnosci.

Aby to bylo maksimum, to forma kwadratowa

{~t, (:::;~) h;hj}

musi bye okreslona ujemnie (to znaczy przyjmowac wartosci ujemne dla wszystkich rzeczywistych hi, hj nie zerujacych si~ jednoczesnie}, Dla k = 1 forma jest okreslona ujemnie, gdy

(d21n L) 1/

dij2 .=(lnL)O=r1<O.

0=0

Warunek ten, przy k = 1, gwarantuje, ze jezeli istnieje estymator efektywny O(Xll X2, ••• ,Xn) parametru (h, to jedynym rozwiazaniem rownania wiarygodnosci d~l In L = 0 jest wlasnie ten estymator.

Przyklad 2.6 Badana cecha populacji generalnej ma rozklad Poissona ).x

p(x,).) = P(X = Xj).) = ,e->', x E N U {O}

x.

o nieznanym parametrze ).. Na podstawie n-elementowej proby prostej wyznaczyc metoda najwifCkszej wiarygodnosci estymator 5. parametru ). tego rozkladu.

Rozwiasanie. Funkcja wiarygodnosci In L przyjmuje postac

n n ).Xi ->. ).L:~=1 Xi . e-n>.

L = II piX;.).) = II X~I = nn X.I

i=l i=1 ,. i=1 ,.

n n

lnL = :LXi -In A - n). - :LlnXi!'

i=1

i=1

dlnL d)'

1 n

= - :LXi- n ). i=l

Zatem estymatorem 5. parametru ). uzyskanym metoda najwiekszej wiarygodnosci jest rozwiazanie (pierwiastek) rownania wiarygodnosci

A 1~ _

). = - L...JXi = X. n i=1

2.2. Badania statystyczne __

81

Estymator ten jest estymatorem nieobci,!:zonym i efektywnym.

E (5.) E(5.2) V (5.)

Zatem

ef 5. = V(5.) _ ~ _

VeX) - ). - 1.

Przyklad 2.7 Dana jest populacja generalna, w ktore] badana cecha X ma roz~la~ normal~y. N (J.L, a) 0 nieznanych J.L i a. Wyznaczyc metoda najwifCkszej wzarygodnoscz estymatory parametrom J.L i a2 tego rozkladu na podstawie n-elementowej probki.

Rozwiasanlo. Funkcja wiarvgodnoscl L rna postac

L =

-n 1 n

In L = -In(21ra2) - - '""'eX. _ u)2

2 2a2 ~ , r: .

,=1

Uklad rownari wiarygodnosci rna wiec postac

{ () 1 n

()J.L InL = a2 ?=eXi - J.L) = 0,

,=1

() n 1 n

{)(a2) In L = - 2a2 + 2a4 ~(Xi - J.L)2 = O.

Rozwi'!:zaniem tego ukladu jest para

f;, =

82

__________________________________________ -- __ 2. Statystyka

Zostalo wiec wykazane, ze srednia arytmetyezna X wynikow proby i warianeja S2 wynikow proby s~ estymatorami najwiekszej wiarygodnosci nieznanyeh parametrow: wartosci przecietnej JL i warianeji (12 rozkladu N(JL, a), przy ezym wiadomo, ze fl = X jest estymatorem zgodnym, nieobciazonym i efektywnym, a warianeja a2 jest estymatorem zgodnym asymptotyeznie nieobciazonyrn.

II. Metoda momentow

Metoda ta polega na porownaniu pewnej liezby moment ow (zwykle kolejnych) rozkladu poliezonego z proby z odpowiednimi moment ami rozkladu populaeji generalnej bedacymi funkcjami nieznanych parametrow, Wykorzystujemy tyle moment ow (zwykle poczatkowych), He jest szacowanych (estymowanych) parametrow. Rozwiazujac otrzymane uklady rownan, otrzymujemy estymatory tych parametrow,

Rozpatrzmy to na przykladzie,

Przyklad 2.8 Niech badana cecha X ma rozklad r (gamma).

{ f3P p-l -f3x

f(x;p,(3) = r(p)x e 0

dla x> 0 dla x ~ 0

gdzie p > 0, (3 > 0 sq nieznanymi parametrami. Na podstawie n-elementowej probki prostej, wybranej z populacji generaInej, w ~torej cecha X ma dany rozklad, wyznaczyc metoda tnomenioui estymatory p, (3 parametrou: p i (3.

Rozwiazanie. Pierwsze dwa momenty zwykle rozkladu gamma ml, m2 S,!:

rowne

_ E(x2) _ pep + 1)

m2 - - (32 .

p ml = E(X) = 73'

Stad otrzymujemy rownania

p - 73 = X,

pep; 1) = ~ L:xl-

(3 n

Rozwiazujac, otrzymujemy

-2 . X

p= 52'

. X (3 = S2'

gdzie

1 n 1 n (1 n )2

s2 = - L:(Xi - X)2 = - L:xf - - L:Xi

n i=l n i=l n i=l

Estymatory otrzymane metoda moment ow nie maja zwykle duzej efektywnosci, ale stosujemy je ze wzgledu na latwosc obliczeii.

2.2. Badania statystyezne _

83

Przeglad podstawowych estymatorow

N ajczesciej .stosowanymi estymatorami w badaniach statystycznych, ze wzgledu n~ jedna ceche, s,!: estymatory wartosci przecietnej i wariancji rozpatrywanej cechy populaeji. Nie zawsze jednak badania s,!: prowadzone ze wzgledu na ceche mierzalna, Czasem badana cecha rna charakter jakosciowy, Wtedy zamiast wartosci liezbowej z badania probnego uzyskujemy jedynie informacje 0 tym, czy dany element rna wyrozniona ceche, czy nie. Podsta wowym parametrem szacowanym w tym przypadku jest prawdopodobienstwo sukces~ (t~go, ze element rna wyrozniona ceche), nazywane frakcj~ (), ktora po pomnozemu przez 100 daje pro cent element ow wyroznionych (maj'!:cych badana ceche] w populacji generalnej. Zadanie sprowadza sie tutaj do estymacji parametru () w rozkladzie dwumianowym

P(k;n,()) = (~)()k(l_ ()t-k.

W pr~ypadku szacowania parametru () na podstawie n-elementowej proby prostej, estymatorem zgodnym, nieobciazonym i efektywnym jest czestosc

wzgledna .

iJ _ kn

- n'

gdzie kn jest liczba element ow wyroznionych (maj,!:cych dana ceche) wsrod n-elementowej probki,

Przedstawimy w postaci tabeli (patrz str. 84) najczescloj wystepujace esty~at_ory par~metrow lub ieh funkeje, utworzone na podstawie n-elementowej probki prostej, zakladaj,!:c ich istnienie w populacji generalnej.

Estymacja przedzialowa

Metody estymacji punktowej pozwalaja uzyskiwac oceny - przyblizenia punkt~we. parametrow rozkladu, przy czym nie potrafimy dac odpowiedzi na pytarna, jaka jest dokladnosc danej cechy - przyblizenia,

Innym sposob:m estymacji, dajacym moiliwosc oceny jej dokladnosci, jest metoda przedzialowa polegajaca na podaniu (wyznaczeniu) tak zwanych przedzial6w ufnosci dla nieznanych parametrow rozkladu (b,!:di funkcji tych parametrow).

Przypomnljmy, ie przedzialem ufnosci a, 0 < a < 1, nazywamy przedzial «()l, ()2) spelniajacy warunki:

P Jego korice ()l = 0l(Xl, ... , Xn), O2 = 02(X1, ..• , Xn) s,!: funkcjami proby losowej i nie zalez'!: od szacowanego parametru ().

84

______________________ 2. Statystyka

h

Tabela wybranyc estymatorow
WlasnoU Dla. jakiej rodziny
Nieznany para. Ea.ymator rozklad6w
me t r populacji
zgodny, roaklad dowolny, dla.
W"rtoU - ~ En . roakf ad u N(I', e-)
przecit;tna. X = nIX, nteobciaaony rdw niea efektywny
(oczekiwana) I'
zgodny, rozklad dowolny, dla.
mediana z prdby asymptotycznie reaktadu N(I', e-) efek-
nieob c iaaony tywnosc rdwn a ~ 0, 64
n rozklad dowolny, dla.
WaliaDeja. 0'2, S~ =;; ~)Xi _1')2 zgodny, rozkla.du N(I', e-)
gdy I' zna.ne nieobciaaony r6wniez efektywny
1
n zgodny,
Walia-Deja 0'2, s2 12: -2 rozklad dowolny
= ;; (Xi - X) a,symptotycznie
gdy J.' nieznane nieobciaaony
1
n rozklad dowolny, dte
5.2 = _1_ 2:(Xi _ X)2 zgodny, rozkladu N(I', e-)
n-1 nleobciaaony efektywnosc r6wna n;l
1
51,S,S· zgodny rozklad dowolny
zgodny, nieobciolzony roaklad norm&lny
Odchylenie bnS, cnS·(a) aaymptotycznie
I1tandardowe efektywny
zgodny, rozklad normaJny
Rdn = [Xmax - Xmin)dn(a) nieobcitzony
asymp. efekf . 0 2° Prawdopodobienstwo pokrycia przez ten przedzial nieznanego parametru () jest rowne o, to znaczy

Liczbe Ct nazywamy poziomem ufnosci,

Wyznaczenie przedzialu ufnosci to jednoczesnie wyznaczenie takiego przedzialu, ie kaidy jego element jest estymatorem nieznanego - badanego parametru i to takim przybliieniem - estymatorem, ie !oinica pomiedzy rzecz!: wista wartoscia parametru () a jego estymatorem () nie przekracza dlugosci przedzialu ufnosci 10 - ()I < ()2 - ()1.

Konstrukcje przedzialu ufnosci omawialismy jui w poprzednich rozwazaniach.

Jest on (przedzial ufnosci) wykorzystywany do weryfikacji hipotez statystycznych.

2.3. Weryfikacja hipotez _

85

2.3

Weryfikacja hipotez

Drugim, po estymacji, celem wnioskowania statystycznego jest weryfikacja hipotez statystycznych (podejmowanie decyzji 0 prawdziwosci alba falszywosci hipotez).

Hipoteza statystycana nazywamy kaide przypuszczenie dotyczac« nieznanego rozkladu badanej cechy populacji. 0 prawdziwosci lub falszywosci hipotezy wnioskuje si~ na podstawie pobranej probki. Przypuszczenia te najczesciej dotycza postaci rozkladu badanej cechy lub wartosci jego paramet row.

Rozwazrny nast~puj<j:ce sytuacje:

a) Wiadomo, ze badana cecha X rna rozklad wykladniczy 0 nieznanej wartosci przecietnoj. Wysuwamy hipoteze, ze wartosc przecietna E(X) = 5.

b) Niech T oznacza czas pomiedzy dwoma kolejnymi zgloszeniami do centrali pogotowia ratunkowego. Wysuwamy hipoteze, ie rozklad tego czasu jest wykladnlczy,

c) Wiadomo, ie badana cecha X rna rozklad normalny N(20, 0) 0 nieznanej wariancji (j2. Wysuwamy hipoteze, ie wariancja (j2 nie przekracza (j5, np. (j2 ::; 9.

d) Dane S<j: dwa zbiory obserwacji, na przyklad wyniki pomiarow tej samej cechy element ow wyprodukowanych w dwu roznych (konkurencyjnych) fabrykach. Wysuwamy hipoteze, ie oba zbiory mozna traktowac jako pochodzaco z populacji 0 tym samym rozkladzie badanej cechy.

Hipotezy, ktore dotycza wylacznie wartosci parametru (b~di parametr6w) okreslonej klasy rozkladow, nazywamy hipotezami parametrycznymi (hipotezy a) i c)); kazda hipotezq, ktora nie jest parametryczna, nazywamy hipotezll nieparametrycznll (hipotezy b) i d).

Jezeli hipoteza parametryczna precyzuje dokladnie wartosci nieznanych parametrow rozkladu badanej cechy, to nazywamy j<j: hipotezq prosta (hipoteza a»), w przeciwnym przypadku mamy do czynienia z hipoteza zlozonll (hipoteza c».

Weryfikacj~ hipotez statystycznych przeprowadzamy na podstawie wynikow proby losowej. Metode postepowania, ktora kaidej mozliwej realizacji probki Xl, X2, ••• , Xn przyporzadkowujo, z ustalonym prawdopodobiefistwem, decyzje przyjecia alba odrzucenia sprawdzanej hipotezy, nazywamy testowaniem statystycznym.

W praktyce zwykle, oprocz weryfikowanej hipotezy H, wyroznla si~ jeszcze inn'l: hipoteze, J( zwana hipotezq alter-natywnq. Hipoteza J( jest taka hipo-

86

_---------------------- 2. Statystyka

2.3. Weryfikacja hipotez _

87

P(8 E WIK) prawdopodobieristwo, ze 8 E W przy zalozeniu, ze prawdziwa jest hipoteza alternatywna K.

Zatem zbior krytyczny W nalezy tak dobrac, zeby P( 8 E WIK) bylo maksymalne (wtedy f3 jest minimalne).

!est,. ~tor~ p~zy ustalonym prawdopodobieristwie bledu pierwszego rodzaju mmII~alizuJe. p.rawdopodobienstwo bledu drugiego rodzaju, nazywamy te~tem najmocrnejszym dla hipotezy H wzgledem hipotezy alternatywnej K.

Jezel~ nato~iast test jest najmocniejszy wzgledem kazdej hipotezy alternatywnej ze zbioru ~ipotez K: a. wiec .w przypadku hipotezy zlozonej, to nazywam~ go te~~em jednostajnie najmocniejszyrn wzgledem K.

,~o Ilu~tracJl poprzed~ich rozwazan przyjmijmy nastepujaca sytuacje: przyp~~cmy,. ze pobrano probke n-elementowa 0 wynikach Xl, X2, .•• , Xn i dla

niej obliczono wartosc statystyki testowej 80 = 8(x X ) Z I'·

. 'b . ., 1, 2,···, Xn· a ozmy,

ze pro ka ta moze pochodzic z rozkladu 0 gestosci !t (X) albo z rozkladu 0

gestosci hex) =1= !t(x).

Mozemy zatem rozwazyc dwie hipotezy:

H: probka pochodzi z rozkladu 0 gestosci !t (x), K: probka pochodzi z rozkladu 0 gestosci hex).

Kiedy prawdziwa jest hipoteza H, wtedy statystyka

testowa 8(X1,X2, ••• ,Xn) ma rozklad 91(8), natomiast gdy prawdziwa jest hipoteza K, wowczas 8(X1, X2, ••. , Xn) ma rozklad 92(8).

Rozpatrzmy teraz dwa sposoby konstrukcji zbioru krytycznego W.

1. W F:zypadku ~~awdziwosci hipotezy H, przy zalozonym poziomie istotnoscl. a,. za zbior krytyczny WI przyjmujemy przedzial [c, +(0), przy spelnieniu warunku

teza, ktora w danym zagadnieniu sklonni jestesmy przyjac, jezeli weryfikowanC): hipotez~ H nalezy odrzucic.

Sytuacje, wobec kt6rej stoimy weryfikujac hipotez~, mozna przedstawic nast~puj,,!:co:

Hipoteza H jest prawdziwa Hipoteza H jest falszywa
PrzyjC):e hipoteze H - Odrzucie hipotez~ H -
- decyzja poprawna - decyzja poprawna
Odrzucic hipoteze H - Przyjac hipotez~ H -
- decyzja bledna - decyzja bledna
Btad pierwszego rodzaju Btad drugiego rodzaju Chcemy, zeby prawdopodobienstwa bledow obu rodzajow byly mozliwie male. Nie mozna jednak zmniejszyc jednoczesnie obu rodzaj6w bledow przy

ustalonej licznosci pro by.

Ustalmy wiec z gory jakies male prawdopodobienstwo a btedu pierw-

szego rodzaju, ktore nazywamy poziomem istotnosci testu. Zazwyczaj przyjmujemy a = 0,01 albo a = 0,05 N ast~pnie, dla ustalonego poziomu istotnosci a, przy wykorzystaniu statystyki testowej 8(X1' ... ' Xn), wyznacza sie zbi6r krytyczny W, aby w przypadku, gdy prosta hipoteza H jest

prawdziwa, byl spelniony warunek

P(8(X!, ... ,Xn) E W) = Q.

Gdy hipoteza H nie jest prost a lub gdy zmienna jest typu skokowego, wowczas nie zawsze jest mozliwa rownosc i zbior krytyczny okreslamy warunkiem

f3 = P(8 E WIK) = 1- P(b E WIK),

8 = 8(X) = 8(X!, ... ,Xn)' W == R\W,

1+00

C 91(8)d8=a.

Jesli hipoteza H jest prawdziwa (a tym samym hipoteza alternatywna K falszywa), to jest mozliwe otrzymanie z proby takiej wartosci 80 statystyki 8, ktora "wpadnie" do zbioru WI odrzuceri hipotezy H (co prawda p~awdop~dobienstwo takiego zdarzeniajest male i wynosi a). Uznajemy Wl~C t~ hl~otez~ za falszywa, mimo ze w rzeczywistosci jest prawdziwa, a przyjmujemy tym samym hipoteze alternatywna K, mimo ze jest ona falszywa. Prawdopodobieristwo bledu drugiego rodzaju wynosi

f3 = [Coo 92( 8)d8

Uwaga. Wybor zbioru (testowego) krytycznego moze bye zazwyczaj dokonany na nieskonczenie wiele sposobow. Wobec wielu moiliwosci wyboru zbioru krytycznego najbardzej celowy bylby wyb6r zbioru W w taki sposob, aby minimalizowal prawdopodobienstwo bledu drugiego rodzaju.

Niech alternatywnC): - konkurencvjna hipoteza wzgl~dem hipotezy H b~dzie prost a hipoteza K. Wtedy prawdopodobienstwo f3 bledu drugiego rodzaju

wyraia sie wzorem

88

______________________ 2. Statystyka

2.3. Weryfikacja hipotez _

89

gl(8) I 2(8) al + a2 = a

al (3 I a2

I

~

d) wyznaczyc zbior krytyczny W tak, aby przy wybranym poziomie istot.nosci a zminirnallzowac prawdopodobieiistwo bledu drugiego rodzaju.

Rozwazany przypadek dotyczyl konstrukcji testu, gdy hipoteza alternatywna byla hipoteza prosta. Zagadnienie komplikuje sie, gdy hipoteza alternatywna jest hipoteza zlozona,

Rozwazmy przypadek hipotezy dotyczacej pewnego paramctru B w rozkladzie badanej cechy populacji. Niech zbiorem krytycznym testu dla hipotezy H : B = Bo bedzie zbior W, taki ze

-~.

c 8

bl Cl 8

Rys. 2.2. Prawdopodobieristwo (3 bledu drugiego rodzaju przy roznych zbiorach krytycznych testu uzyskanych dla tego samego poziomu istotnosci a

P( 8(Xt, ... , Xn) E WIBo) = a.

Symbolem M(B, W) oznaczamy prawdopodobieristwo tego, ze funkcja testowa 8 E W, przy zalozeniu, ze nieznany parametr jest rowny (), czyli

M(B, W) = P(8 E WID).

Funkcje te, jako funkcje zmiennej B, nazywamy moca testu.

Przyklad 2.9 Badana cecha ma rozklad N(fJ-,O') 0 znanej wariancji 0'2. Weryfikujemy hipoieze H : fJ- = fJ-o na podstawie 25-elementowej pr6by, przy wykorzystaniu jako funkcji testowej statystyki

U = X - fJ-o Vn = 5(X - fJ-o) .

a a

Dla poziomu isiotnosci a = 0,05 wyznaczyc moc testu w przypadku, gdy:

a) zbiorem krytycznym W jest przedzial [c, +00), gdzie c spelnia warunek P(U ~ CIfJ-o) = a,

b) zbioretn krytycznym WI jest suma przedzial6w (-00, -cll u [ct, +00), gdzie Cl spelnia warunek

i jest rowne polu obszaru zakreskowanego poziomo (Rys 2.2) Warto zwrocic uwage na fakt, ze gdybysmy zmniejszyli prawdopodobieiistwo bledu pierwszego rodzaju a (wieksze c), wowczas zwiekszylby sie blad drugiego rodzaju {3.

2. Przy tym samym poziomie ufnosci a za zbi6r krytyczny W2 przyjmujemy sume przedzialow (-00, bll u [ct, +00), takich ze

Wtedy

j3 = t" g2(8)d8.

Jbl

I jak mozna zauwazyc na Rys 2.2, jest ono wieksze niz w przypadku poprzednim.

P(U :s; -CllfJ-o) + P(U ~ CllfJ-o) = P(WI ~ cllfJ-o) = a.

Rozwiasanie.

a) Poniewaz zmienna U ma rozklad zblizony do rozkladu normalnego standaryzowanego (Twierdzenia graniczne), zatem z tablic rozkladu normalnego N(O,l) przy a = 0,05 znajdujemy liczbe c, taka ze <p(c) = 1- a, c = 1,64. Zatem W = [1,64; +00). Moe testu wyraza si~ nastepujaco:

M1(fJ-, W) = P(U ~ 1,641fJ-) = P (5(X - fJ-: fJ- - fJ-o) ~ 1, 641fJ- ) =

p(5(XO'-fJ-) ~1,64+ 5(fJ-0O'-fJ-)/fJ-) =

P(U> 1,64 + AIfJ-) = 1 - <P(1, 64 + A),

Porownujac oba przypadki, stwierdzamy, ie test w przypadku pierwszym jest mocniejszy niz w przypadku drugim, bo przy tym samym poziomie istotnosci a daje mniejsze prawdopodobieristwo bledu drugiego rodzaju.

Aby skonstruowac test statystyczny pozwalajacy weryfikowac hipoteze H, nalezy zatem okreslic nastepujace elementy:

a) wybrac statystyke testowa stosownie do tresci postawionej hipotezy H,

b) ustalie dopuszczalne prawdopodobieristwo a bledu pierwszego rodzaju (poziom istotnosci testu),

c) okreslic hipoteze alternatywna,

90

_______________________ 2. Statystyka

2.4. Weryfikacja hipotez dotyczacych ... -------------

91

2.4 Weryfikacja hipotez dotyczqcych wart.osci pr'zcciet nej

Model 1 - przy znanej wariancji a2 Rozwaimy hipoteze 0 wartosci przecietnej:

,,\ = 5(/La - /L)/a

H : It = /La.

-2 -1

1

2

W testach rozpatrujemy t~ hipoteze wobec hipotez alternatywnych:

Rys. 2.3. Porownanie mocy testow z Przykladu 2.9

a) K:

b) K:

c) K:

/L = /Ll > /La, /L = /Ll < /La, /L = /LI =1= /La

gdzie ,,\ = 5(/La - /L), <P zas jest dystrybuanta rozkladu N(O, 1). a

z ustalonym poziomem istotnosci a, a E (0,1).

Do weryfikacji tej hipotezy, gdy cecha X populacji generalnej rna rozklad normalny N(lt, a) przy nieznanym /L i znanym a, wykorzystujemy statystyke testowa U okreslona wzorem

b) Z tablic rozkladu normalnego znajdujemy Cl = 1,96 spelniajace warunek P(IUI > cil/La) = 0, OS, Cl = 1,96, i dlatego

WI = (-00,-1,96)U [1,96, +(0).

M2(J.L, Wd = P(1U1 ~ 1, 961J.L) = P (15(X - J.L; J.L - J.Lo) 1 ~ 1,961 J.L) = P C(Xu- J.L) ~ -1,96 -t A) + P C(Xu- J.L) ~ 1,96 + A) =

1 - P (A - 1, 96 ~ 5(X u- J.L) ~ A + 1,96) =

1 - <I>(' + 1,96) + <I>(A - 1,96).

U = X -Pa Vn,

a

ktora przy zaloieniu prawdziwosci hipotezy H : It = /La jest standaryzowana zrnienna losowa N(O, 1).

Zbior krytyczny testu, ktory przy danym poziomie istotnosci a minimalizuje prawdopodobieristwo popelnienia bledu, wyznacza si~ - jeieli istnieje - w zaleznosci od wartosci PI okreslonej hipoteza alternatywna, Moina wykazac, ie najmocniejszy test do zweryfikowania hipotezy H : Jt = /La przy alternatywnej hipotezie J( : /L = /LI jest taki sam dla wszystkich hipotez J( (jest ich nieskonczenie wiele), w ktorych It I > /La, a najlepszym zbiorem krytycznym jest przedzial [u(l - a), +(0), gdzie u(l- a) jest kwantylem rzed u (1- a) rozkladu N(O, 1), to znaczy

Pt N > u(l - a» = a, N oznacza zrnienna 0 rozkladzie N(O,l).

Oczywiscie u(1 - a) + u(a) = 1.

Test ten nazywamy testem jednostronnym z prawostronnym przedzialem krytycznym, patrz Rys. 2.4 a).

Gdy hipoteza alternatywna jest J( : /LI < /La, wtedy zbiorem krytycznym jest przedzial (-00, u(a»). Test ten jest nazywany testem jednostronnym z lewostronnym przedzialem kryt.ycznym, patrz Rys. 2.4 b).

Z symetrii rozkladu norma.lnego N(0,1) wynika, ie -u(1 - a) = u(a) i przedzial Iewostronny ma postac (-00, -u(l - a»).

Moc testu teraz wynosi

Wykresy mocy testow dla obu przypadkow przedstawiono na Rys. 2.3. Przy ,,\ < ° test z punktu a) rna moe wieksza nii test z punktu b), natomiast gdy ,,\ > 0, rna mniejsza moe.

Jeieli zatem hipoteze H bedziemy weryfikowali wobec hipotezy alterna.tywnej J( : /L > /La, czyli ,,\ > 0, to nalezy korzystac z pierwszego z tych testow. Jezeli jednak hipoteza alternatywna bedzie hipoteza K : /L =1= Jl.o, to nalezy korzystac z drugiego z tych testow.

92

_____________________ 2. Statystyka

2.4. Weryfikacja hipotez dotyczacych ... _

93

a)

y=¢(~

u(a) y=¢(.)~

prawdziwa, gdy w rzeczywistosci jest ona falszywa. Prawdopodobienstwo popelnienia tego bledu, jak juz zostalo wspomniane, nosi nazwe bledu drugiego rodzaju i jest zwykle oznaczane przez [3, podczas gdy prawdopodobieiistwo nieprzyjecia za prawdziwa hipotezy, ktora jest w rzeczywistoscl prawdziwa, nosi nazw~ bledu pierwszego rodzaju (poziomu istotnosci) i jest oznaczane zwykle przez a - patrz tabela na stronie 86.

c)

-u(a)

y=¢~

Przyklad 2.10 Z populacji, w ktore] badana cecha ma rozklad normalny N(fL,4), wylosowano probk~ ztoionq z 16 obserwacji i wyznaczono x = 1,5. Na poziomie istotnosci a = 0,05 zweryfikowac hipoteze H : fL = 2 przy hipotezie alternatywnej I( : fL = fLI < 2.

b)

Rozwiazanie. Obliczamy wartosc statystyki testowej

>

x - flo 1.5 - 2 r;

Uo = -a-Vii = 16 y4 = -0,5.

Z tablic kwantyli rozkladu N(O, 1) odczytujemy wartosc u(l- a) = u(O, 95) = 1,64. Zbiorem krytycznym lewostronnym jest wiec przedzial (-00, -1,64] = W. Zatem

Rys. 2.4. Testy do weryfikacji hipotezy 0 wartosci przecietnej H : fL = flo wobec hipotezy alternatywnej

a) J( : fL > flo, b) J( : fL < flo, c) J( : fL =I- flo

Uo f/. W

i na poziomie istotnosci 0,05 nie mamy podstaw do odrzucenia testowanej hipotezy.

Jezeli hipoteza alternatywna jest J( : fL = fLI =I- flo, to zbiorem krytycznym jest sum a przedzialow (-00, -u(l - a/2)] U [u(l - a/2), +(0). Test ten nosi nazwe testu dwustronnego, patrz Rys. 2.4 c).

Hipoteze H : fL = flo odrzucamy, gdy obliczona z proby wartosc statystyki testowej

Model 2 - przy nieznanej wariancji 0'2

Badana cecha X populacji generalnej rna rozklad N (fL, a) 0 obu parametrach nieznanych. Weryfikujemy hipoteze H : fL = flo wobec hipotezy alternatywnej

U=X-fLoVii

a

nalezy do zbioru krytycznego (zaleznie od wyboru testu i poziomu istotnosci). W przeciwnym przypadku twierdzimy tylko, ze nie mamy podstaw do odrzucenia hipotezy H : fL = flo, co nie oznacza, ze hipoteza H jest prawdziwa. Oznacza to tylko, ze wyniki tej proby, na podstawie ktorej weryfikujemy hipoteze H przy przyjetym "ryzyku bledu" a, nie przecza tej hipotezie. Jezeli hipoteza H jest prawdziwa, to bledna decyzja jej odrzucenia zdarza si~ w duzej liczbie takich decyzji przecietnie (na) razy, na przyklad przy poziomie istotnosci a = 0,05 zdarza sie 100·0,05 = 5 razy na sto decyzji.

Do podjecia decyzji "przyjecie hipotezy H" nie wystarcza wiec znajomosc - przyj~tego przed weryfikacja - poziomu istotnosci, ale konieczna jest informacja dotyczaca prawdopodobieiistwa przyjecia weryfikowanej hipotezy za

a) K:

b) K:

c) K:

fL = fLI > flo, fL = fLI < flo, fL = fLI =I- flo

z ustalonym poziomem istotnosci a, a E (0,1).

Do weryfikacji tej hipotezy stosujemy test oparty na statystyce

x - flo c--:;t = S v n -1,

gdzie

2 1 ~ -2

S = - L..,(.Xi - X) .

n ;=1

94

_----------------------- 2. Statystyka

Wtedy zmienna t przy prawdziwosci hipotezy H rna rozklad t Studenta 0 (n - 1) stopniach swobody.

Zbicr krytyczny testu, podobnie jak w poprzednim modelu, wyznacza si~

w zaleinosci od poloienia J.Ll·

Gdy J.Ll > J.Lo, wowczas zbiorem krytycznym prawostronnym jest przedzial

[t(l- a,n -1), +00),

gdzie t( 1 _ a, n _ 1) jest kwantylem rzedu (1 - a) rozkladu t Studenta przy (n - 1) stopniach swobody.

Gdy J.Ll < /Lo, wtedy zbiorem krytycznym lewostronnym jest przedzial

[-00, -t(l- a,n -1)],

gdzie t(l _ a, n _ 1) jest kwantylem rz~du (1 - a) rozkladu t Studenta przy (n - 1) stopniach swobody.

Gdy J.Ll f. J.Lo, wowczas zbiorem krytycznym dwustronnym jest suma przedzialow

gdzie t (1 _ %, n - 1) jest kwantylem rzedu (1 - %) rozkladu t Studenta przy (n - 1) stopniach swobody.

Jesli tobl wyliczone dla statystyki weryfikacyjnej nalezy do zbioru krytycznego, to hipoteze H : J.L = J.Lo odrzucamy na korzyse odpowiedniej hipotezy alternatywnej K na poziomie istotnosci a. W przeciwnym przypadku nie rna

podstaw do odrzucenia hipotezy H.

Przyklad 2.11 W celu ustalenia, czy dotychczasowa norma uiytkowania pewnego narzlCdzia, wynoszqca 150 dni, nie jest zbyt wysoka, zbadatio jaktycznll okres uiytkowania na przykladzie losowo wybmnych 65 sztuk tych ruirzedzi procujqcych w normalnych warunkach. Otrzymamo sredniq dlugosc okresu uiytkowania 139 dni oraz odchylenie standardowe s = 9,8 dni. Zakladajqc, ie czas poprawnej pracy narzlCdzia ma rozkiad normalny, stwierdzic na poziOmie istotnosci a = 0,01, czy uzyskane wyniki suuiouiui podstawlC do zmiany;

zmniejszenia normy.

Rozwiltzanie. Obliczajac wartose statystyki testowej, otrzymujemy

x - J.Lo rx: 139 - 150

t-u = s V 64 = 9,8 ·8= -8,98.

2.4. Weryfikacja hipotez dotyczacych ...

----------------

95

Poniewaz hipoteza alternatywna jest hipoteza K

krytycznyrn lewostronnym testu jest przedzial ~: J.L < 150, wiec zbiorem

W = (-00, -t(l- a,n -1)] = (-00 teO 99 64)J -- (

, " - -00, -2,385].

Marny wiec tob/ = -8,98 E (-00 -2 389] - W Z t hi

150 n 1 .. "- . a em ipoteze H . I/.

a ezy na poziomie istotnosci a = 0 01 d ., k .. .. r: =

alternatywnej 150 ' 0 rZUClC na orzysc hipotezy

J J.L < , a zatem uzyskane rezultaty swiadcz ' .

byla zbyt wysoka (mozna >- nalezy j,!: obnizyc). '!: 0 tym, ze norma

Model 3 - przy ni ..

, nieznanej wariancji (J2 i duzej Iic b ,.

proby n ze nOSCl

Badana cecha rna rozklad dowolny 0 nieznanej wartosci rzeci .. ,

czonym, ale nieznanym, odchyleniu standardowym (J ~ery~~t~eJ J.L ~? skonH : J.L = J.Lo wobec hipotezy alternatywnej . ujerny ipoteze

a) K:

b) K:

c) K:

J.L = J11 > J.Lo,

J.L = J11 < J.Lo, J.L = J.Ll i' J.Lo·

Licznosc pr6by ti ~ 100.

nymW;~y~::~j~ h~:~~~ I{ ~:y: modelu przeprowadzamy testem analogiczprzy "duzych" ti rozklad b'~dz;: b~~~' rZo::;a~wa~ych pr1aw wielkich liczb, i2 (J'" OWl norma nemu przy czym za

mozemy przyjac odchylenie 8 obliczone z pr6by. '

Przyklad 2.12 Z' dl

z mze~zono ugosc 196 wl6kien bawelny, a wyniki omiaroui

grupowano w nasiepujqcum szerequ rozdzielczym: p

Nr klasy 1 2 3 4 5 6 7
Srodek przedzialu 8 13 18 23 28 33 38
Licznosc 2 9 18 70 75 19 3 Na poziomie istotnosci a - 0 01 rfik ,.

wl6kna dla calej badanei art;; b' I zwe.ry. ~wac hipoteze, ze srednia dlugosc

hipotezu K : J1 i' 24. 'J P awe ny Jest rouma J.L = 24 wobec alternatywnej

Rozwiasanie. Obliczone wartosci x i 82

wynosza szeregu rozdzielczego odpowiednio

1

196 (2·8 + 9 . 13 + + 3 . 38) = 25,04,

1~6 (2. (17,04)2 + 9 + 3 . (12,96)2) = 27,72.

96

_____________________ 2. Statystyka

2.5. Testy istotnoscl dla wariancji _

97

Wartosc statystyki U jest wiec rowna

_ x - J.Lo r.:: = 25,04 - 2414 = 2 77.

Uobl - s v n 5,27 '

Zbiorern krytycznyrn dwustronnyrn, wobec hipotezy H, jest zbior

a)

b)

w = (-00, -u (1- ~)] U [u (1- ~) ,+00) =

= (-00, -u (0, 895)] U [u (0, 995), +00) = (-00; -2,58) U (2,58; +00) .

Zatem Uobl = 2, 77 E W i odrzucarny weryfikowana hipoteze J.L = 24 na rzecz hipotezy alternatywnej J.L =I- 24 na przyjetym poziornie istotnosci a = 0,01.

y~.

o , 2

W X

y~

o 2

W X

c)

2.5 Testy istot nosci dla wariancji

Analogicznie jak w przypadku weryfikacji hipotez dotyczacych wartosci przecietnych, mozemy rozpatrzec testy do weryfikacji hipotez 0 wariancji - odchyleniu standardowyrn w zaleznosci od przyjetych zalozen, rnodeli.

Modell - przy dowolnej liczebnosci pr6by n

Badana cecha populacji rna rozklad norrnalny N(J.L,a) 0 nieznanych J.L i a. Weryfikujerny hipoteze H : a2 = a5 wobec hipotezy alternatywnej:

Rys. 2.5 Testy do weryfikacji hipotezy 0 odchyleniu standardowyrn H : a2 = 0"5 wobec hipotezy alternatywnej

a) J( : a2 > a5, b) J( : a2 < a5, c) J(: a2 =I- a5

a) K:

b) K:

c) K:

2 _ 2 2

a - a1 > ao,

a2 = ar < a5, aZ = ar =I- a5·

Hipoteze H : a2 = a5 odrzucarny na przyjetym poziornie ufnosci a, gdy obliczona z proby wartosc statystyki X2 = nS2 / a5 nalezy do zbioru krytycznego i przyjrnujerny wtedy odpowiednia hipoteze alternatywna, W przeciwnyrn przypadku nie rna podstawy do odrzucenia hipotezy H.

Do weryfikacji hipotezy H wykorzystuje si~ statystyke 2 nS2

X = -2-'

ao

ktora przy zalozeniu prawdziwosci hipotezy H rna rozklad X2( n - 1) - rozklad "chi kwadrat" 0 (n - 1) stopniach swobody.

W przypadku hipotezy alternatywnej J( : a2 > a5 zbiorern krytycznyrn W jest przedzial [X2(1 - a, n - 1), +00), gdzie X2(1 - a, n - 1) jest kwantylero rzedu (1 - a) rozkladu X2 0 (n - 1) stopniach swobody, patrz Rys. 2.5 a).

.• 2 2' bi

Gdy hipoteza alternatywna Jest hipoteza J( : a < ao, wowczas z iorern

krytycznyrn W jest przedzial (0,x2(a,n-1)), patrz Rys. 2.5 b).

Jesli hipoteza alternatywna jest J( : a2 =I- a5, to zbiorern krytycznym W jest surna dwoch przedzialow (0, X2 (~, n - l)jU [x2 (1 - ~,n - 1) ,+00], patrz Rys. 2.5 c).

Przyklad 2.13 W celu oszacowania dokladnosci pewnego przyrzqdu pomiarowego dokonano 8 pomiar6w pewnej uiielkosc; uzyskujqc wyniki

18,17; 18,21; 18,05; 18,14; 18,19; 18,22; 18,06; 18,08.

Zweryfikowac na poziomie isiotnosci a = 0,05 hipoteze H : a2 = 0,06 wobec hipotezy alternatywnej a2 =I- 0,06.

Rozwiaaanie. Zbiorern krytycznyrn obustronnyrn jest surna przedzialow

W (0,x2 (~,n -1)] U [X2 (1- ~,n - 1) ,+(0) =

(0, X2 (0, 025, 7)] U [X2 (0, 975, 7) , +(0) = (0,1,69] U [16,01, +(0).

2.6. Weryfikacja hipotezy 0 rownosci ... _

99

98

______________________ 2. Statystyka

Model 3 - przy liczebnosci pr6by n 2:: 100

Badana cecha populacji rna rozklad dowolny 0 skoticzonej wariancji a2 > O. Weryfikujerny hipoteze H : a2 = a5 wobec hipotezy alternatywnej:

Obliczona wartosc wariancji z proby 82 = 0,064 i wartosc statystyki X~bl = ~ = 8·0,0575 = 8,54 ... nie nalezy do W, nie rna wiec podstaw do odrzucenia

<To 0,06

hipotezy H : a2 = 0,06.

a) K:

b) K:

c) K:

Model 2 - przy liczebnosci pr6by n 2:: 50

Badana cecha populacji rna rozklad N(IL, a) 0 nieznanych parametrach IL, a. Weryfikujerny hipoteze H : a2 = a5 wobec hipotezy alternatywnej:

a) K:

b) K:

c) K:

a2 = ar > a5, a2 = ai < a5, a2 = ai i= a5·

Licznosc proby n ~ 100.

W tyrn przypadku weryfikacje hipotezy H opieramy na statystyce

S*2 _ a2~

U = 0_

a5 2 '

Model ten wykorzystujerny, gdy licznosc proby n ~ 50. Do weryfikacji hipotezy, jak poprzednio, stosujerny statystyke nS2 j a5 oraz fakt , ie statystyka

V2nS2ja5 rna w przybliieniu rozklad N( v2n - 3, 1), a wiec ie statystyka

U = V2nS2ja5 - v2n - 3 rna w przybliieniu rozklad N(O,l).

Zbiory krytyczne wyznacza sie w zaleznosci od hipotezy alternatywnej

ktora przy zalozeniu prawdziwosci hipotezy H rna dla duiych n w przybliieniu rozklad N(O,l). Zbiory krytyczne s~ wiec okreslone identycznie jak w Modelu 2.

a) [u(l- a),+oo),

b) (-oo,-u(l-a)],

c) (-oo,-u (1- ~)] U [U (1-~) ,+00),

Przyklad 2.15 Z populacji generalnej pobrano 450-elementowq pr6bkf( i otrzymano 8*2 = n~l L:~(Xi - xl 14,9. Na poziomie istotnosci a = 0,05 zweryfikowac hipoieze H : a2 = 16, jeili hipotezq alternatywnq jest J( : a2 < 16.

Rozwiazanie. Zbior krytyczny rna postac

W = (-00, -u(l - a)] = (-00, -1,64].

gdzie u(p) oznacza, jak zwykle, kwantyl rzedu P rozkladu N(O, 1).

Przyklad 2.14 Do tarczy oddano 50 strzalow mierzqc odleglosci od srodka tarczy. Wyliczona wariancja tych odleqlosci a s2 = 107,3 cm2. Zakladajqc, ie odleglosci majq rozklad normalny, zweryfikowac na poziomie a = 0,05 hipoieze H, ie wariancja odchyleri trafieri od srodka tarczy przy tego rodzaju strzelaniu a2 = 100 cm2, jesli hipotezq alternatywnq jest hipoteza J( : a2 > 100 cm2.

Rozwiazanie. Zbior krytyczny rna w tyrn przypadku postac

Wartosc statystyki obliczeniowej Uobl wynosi

8*2 - a2 In 14 9 - 1 64

u.u= a5°V"2= '16' V225=-1,03.

Wartosc Uo = -1,03 tJ. W = (-00, -1,64], a wiec nie rna podstaw do odrzucenia hipotezy H na przyjetyrn poziornie istotnosci a = 0,05.

W = [u(l - a), +00) = [u(O, 95), +00) = [1,64, +00).

2.6 Weryfikacja hipotezy 0 rownosci wartosci przeciet nych badanej cechy

Wartosc statystyki obliczeniowej

~ J2.50.1073

Uobl = V --;r - v2n - 3 = 100 ' - v'97 ~ 0,510.

Model 1 - przy znanych wariancjach O"i, O"i

Badana cecha X rna w dwoch populacjach rozklady N(ILb 0"1), N(IL2.0"2) odpowiednio 0 znanych a1, a2 i nieznanych ILl, IL2. Weryfikujerny hipoteze

Mamy wiec Uobl tJ. W, a zatern nie rna podstaw do odrzucenia hipotezy H : a2 = 100 przy poziornie istotnosci a = 0,05.

100

_____________________ 2. Statystyka

2.6. Weryfikacja hipotezy 0 rownosci ... _

101

H : j1.1 = j1.2, przy zadanyrn poziornie istotnosci a. Z obu populacji wybieramy dwie niezalezne proby 0 licznosciach rownych nl, n2. Do weryfikacji tej hipotezy stosujemy test oparty na statystyce

Model 2 - przy nieznanych wariancjach (J'~, (J'~ Badana cecha X rna w dwoch populacjach rozklady

gdzie X I, X 2 s,!: srednimi arytrnetycznyrni pobranych probek. Statystyka ta przy zalozeniu prawdziwosci tezy H rna rozklad N(O, 1). Zbiorarni krytycznyrni sa, odpowiednio, przedzialy

odpowiednio 0 nieznanych J.lb J.l2, (J'l, (J'2. Weryfikujerny hipoteze H : J.lI = J.l2, na podstawie prob 0 duzych licznosciach nl ~ 100, n2 ~ 100. Test istotnosci dla sprawdzanej hipotezy H budujerny analogicznie jak dla Modelu 1, z tyrn ze poprzednie znane wartosci (J'~, (J'~ zastepujemy wartosciami s~, s~ uzyskanyrni z pobranych probek:

[u(l- a), +00), gdy hipoteza alternatywna jest

(-00, -u(l- a»), - - -11- --

(-oo,-u (1- %)] U [u (1- %) ,+00), - - -11---

J( : J.lI > J.l2, J( : J.lI < J.l2, J( : J.Ll :j; J.l2·

I waga:

II waga:

5,25; 5,98; 5,83; 5,58; 5,35; 5,59; 5,41; 5,81; 5,95; 5,72; 5,31; 5,13; 5,64; 5,89; 5,17; 5,18; 5,27; 5,73; 5,08; 5,24.

Zmienna U rna w przybliieniu rozklad norrnalny N(O,l). Dalej postepujemy

tak.jak w Modelu 1. .

Przyklad 2.17 Srednia prtdlco$t5 a,utq,busu rnilfjskiego (w km/h) obliczona .1la

'p(Jf/~ia.,pie zmierzofi1Jch, w lradil,. .~iJic{ 200 autQintsOw byla rottina 15, 1, naiomiast srednia p1Y(dkosc obliczona w niedziele byla r6wna 16,4. Weryjikacja p~dkosci obliczona na podstawie tych wynik6w s~ = 6, 8, s~ = 4,3. Na podstawie uzyskanych danych zweryjikowac, na poziomie istotnosci a = 0,05, hipoteze H : J.ll = J.l2, ie srednie p1Y(dkosci autobus6w w srody i w niedziele byly takie same, jesli hipoteza alternatywnq jest hipoteza J( : J.ll < J.l2, ie srednia pr~dkosc w srody byla mniejsza niz w niedziele.

Zatem .wystarczy sprawdzic, czy Uobl. obliczone z pobranych prob n~iy 4.0041 .... powiedniego przedzialu krytycznego W, I wyciit;-gn¥ stadodpewiedne wnioski dotyczace odrzucenia lub nieodrzucenia badanej hipotezy D.

Przyklad 2.16 Na dw6ch r6inych wagach zwaiono po 10 kawalMw 100-'me· trowych prz~dzy i uzyskano nastepujqce rezultaty (wyniki w qramach}:

Wiadomo, ie wariancja mas dla I wagi (J'~ = 0,06, a dla drugiej (J'i = 0,07. Zakladajqc, ie rozpatrywana cecha wagi (waga stumetrowego kawalka) ma rozklad normalny, zweryjikowac na poziomie istotnosci a = 0, 05 hipoteze H, ze uxirtosci przecietne mas kawalk6w prz~dzy uzyskiwane przez te wagi sc jednakowe, wobec hipotezy alternatywnej J( : J.ll i: J.l2·

Rozwiqsanie. Zbi6r krytyczny w tyrn przypadku rna postac

W = (-00, -u(l - a)] = (-00, -1,64].

Rozwiazanie. Zbi6r krytyczny w tyrn przypadku jest suma przedzialow

Wartosc obliczeniowa statystyki testowej Uobl wynosi

W = (-oo,-u (1- i)] U [u (1- i) ,+00) = (-00, -1,98]U[I,98, +00).

Obliczenia na podstawie doswiadczenia wskazuja, ie

__ )/ s~ s~ /J6,8 4,3

(Xl - X2 - + - = -1,3 - + - ~ -4,69,

nl n2 200 120

/)0,06 0,07

Uobl = (5,65 - 5,36) 10 + 10 ~ 2,54,

a wiec naleiy do zbioru krytycznego W. Zatern hipoteze 0 rownosci srednich predkosci naleiy odrzucic na korzysc hipotezy alternatywnej J(, ie predkosc srednia w niedziele jest wieksza od sredniej predkosci w srody,

Uwaga. Korzystajac z poprzednich danych, rnoierny zweryfikowac hipoteze H : J.ll = j1.2 przy hipotezach alternatywnych: a) J( : j1.1 > j1.2 oraz b) J( : j1.1 :j; j1.2'

a wiec Uobl E W, a zatern hipoteze 0 rownosci wartosci przecietnych na poziornie istotnosci a = 0,05 naleiy odrzucic.

102

_____________________ 2. Statystyka

2.7. Zasada najmniejszej sumy kwadratow _

103

Odpowiednie zbiory krytyczne maja postac

Wa = [1,64,+00),

Wb = [-00,-1,96)U[1,96,+00).

Traktujac Yi jako zadane i Xi jako znane, szukamy wielkosci a, b takich, zeby funkcja

Zatem Uobl = -4,64 rJ. Wa, wiec nie rna podstaw do odrzucenia hipotezy H przy hipotezie alternatywnej K : J.L1 > J.L2· Poniewaz u-u E Wb, wiec hipoteze H nalezy odrzucic na rzecz hipotezy alternatywnej K : J.L1 i= J.L2, ie predkosci srednie autobusow w srody i niedziele s~ rozne miedzy soba.

U waga. Mozemy weryfikowac jeszcze wiele roznych typ6w hipotez statystycznych, a w szczegolnosci: hipotez 0 wskazniku struktury populacji; hipotezy 0 rownosci wskaznikow struktury dla dw6ch POPUh1Cji; hipotez 0 rownosci wielu wariancji.

n n

S = S(a,b) = 2)Yi - y;)2 = ~)Yi - a - bXi)2

i=l i=l

miala wartosci mozliwie male, tj. osiagala minimum.

W celu wyznaczenia tego minimum traktujemy funkcje S jako funkcje dwoch zmiennych i stosujemy normalna procedure wyznaczania minimum. U znajemy, ze Xi, Yi sC!: ustalone i znane, wiec rozniczkujac S (a, b) wzgledem a i b, otrzymujemy uklad rownari normalnych dajacy warunek konieczny na ekstremum funkcji:

2.7 Zasada najmniejszej sumy kwadrat6w

{ ~!

oS ob

-2 2:i=l (Yi - a - bXi) = 0,

Zasada ta, wprowadzona w 1806 r. przez Legendre'a i w 1809 r. przez Gaussa, jest najczesciej stosowana metoda oceny bledow - statystyczna ocena bledow, Daje ona praktycznie bardzo dobre rezultaty i jest oparta na nastepujacym sposobie postepowania.

Przypuscmy, ze wyniki i- tego pomiaru Yi pewnej badanej wielkosci mozemy uwazac za sume odpowiedniej wielkosci Yi przyjetego modelu matematycznego oraz bledu ei : Yi = Yi + ei·

Przyjmijmy w najprostszym przypadku ten model jako model liniowy

lub rownowaznie

{ na + b2:i=l Xi

a 2:i=l Xi + b 2:i=l X~ =

Y = a + bx.

(2.1)

Wyznaczajac stad a i b, mamy:

2:i=l XiYi - ~ (2:i=l Xi) (2:i=l Vi) 2:i=l X~ - ~ (2:i=l Xi)2

1 n 1 n

a = - L Yi - b· - LXi.

n i=l n i=l

b =

Dobieramy parametry modelu (2.1), to znaczy a, b tak, aby suma kwadrat6w bledow

n n

S= Lel = L(Yi-Yi?

(2.2)

Wprow d . . - 1 "n - 1 "n .

a zajac oznaczenia X = n L.."i=l Xi, Y = n L.."i=l Vi, mozemy parametry

a i b przedstawic w postaci

i=l i=l

byla mozliwie najmniejsza.

Postac funkcyjna wielkosci S dana wzorem (2.2) nazywa sie czesto kryterium "dobroci" modelu. Nalezy znalezc taki sposob doboru parametrow a, b, by sumy wartosci bezwzglednych bledow e, byly male lub sumy kwadrat6w bledow byly male.

Mamy

{ b 2:i=l XiYi - nxfj 2:i=l(XiYi - xy)

= "n 2 -2 = "n (2 -2) ,

L.."i=l Xi - nx L.."i=l Xi - X

a = - _ -b _ - __ 2:i:1(XiYi - xy)

Y X - Y X "n (2 -2)

L.."i=l Xi - X

lub

Yi = Yi + ei, i = 1, 2, ... n

(2.3)

lub

104 2. Statystyka

2.7. Zasada najmniejszej sumy kwadrat6w _

105

Zatem ten optymalny model rna postac

Rozwiazanie. Z podanych pomiarow i przyjetego modelu otrzymujemy:

fi = a + bx, gdzie a, b S,,!: dane w (2.3)

a + b· 0 = a,

a + b·1 = a + b, a+b·1=a+b

lub

fi = (y - bx) + bx, gdzie b jest dane w (2.3).

oraz

Zauwaimy, ie w przypadku tego optymalnego modelu suma wzglednych wartosci bledow wynosi

n

L>~ = S(a,b) = min S(c, d),

;=1 c,d,

el = VI - Yl e2 = Y2 - Y2 e3 = V3 - Y3

a - 0 = a, a + b - 1, a + b - 2.

gdzie a, b S,,!: dane w (2.3). Wstawiajac wyliczone a, b do S(a,b), otrzymujemy sum~ wzgledna bledow

Zatem

n n n

Lei L(:Yi - y;) = L(a + bx, - Yi) =

;=1 i=1 ;=1

na + nbx - ny = n(y - a - bx) = 0,

i uklad rownari normalnych rna postac

n n

S(a,b) = 2:)Y; - bx; - Y + bx)2 = L[Yi - Y - b(x; - X)]2 =

;=1 ;=1

n n n

L(Yi - y)2 + b2 L(X; - x)2 - 2b ~)Y; - Y)(X; - x) =

i=1 ;=1 ;=1

n

V(Y) + b2V(X) - 2b L XiYi + 2b· n· x· y =

as

{ 8a = 6a + 4b - 6 = 0,

8S

_. = 4b + 4a - 6 = O. 8b

to znaczy rowna zeru, a suma kwadratow bledow wynosi

Rozwiazanie tego ukladu to (a,b) = (0,3/2).

Zatem optymalny modelliniowy mozna opisac Rys. 2.6.

Suma kwadratow bledow osiaga minimum

;=1

n

V(Y) + 2bnE(Y)E(X) + b2V(X) - 2b L X;Yi·

;=1

Istotnie

1 S( a, b) = 3a2 + 2b2 + 4ab - 6a - 6b + 3 ~ "2.

Metoda najmniejszych kwadratow pozwala dla ustalonej, skonczonej liczby punkt6w (Xk,Yk), k = 1,2, ... ,n, Xk t= Xl dla k t= I, dobrac prosta

Przyklad 2.18 Dane z pomiar6w pewnej zmiennej dwuwymiarowej mozna zapisac nastepujqco:

V = a + bx

Przyjmijmy model:

taka, ieby suma wzglednych wartosci bledow

fi = a + bx.

Wyznaczyc a, b tak, by model byl optymalny.

n

L(y; - a - bxd

;=1

106

______________________ 2. Statystyka

2

(X3, Y3)

------------~

Rozdzial3

Zadania

x

n

2:)Yi - a - bXi)2

i=l

Zadanie 1. Iloma sposobami mozna ustawic 8 wiei na zwyklej szachownicy, tak aby nie atakowaly sie wzajemnie?

Zadanie 2. Na przyjeciu gospodarz chce usadzic swoich gosci przy podluznym stole: 4 panie z jednej strony oraz 4 panow z drugiej strony.

a) Na ile sposobow moze tego dokonac?

b) J ak sytuacja sie zmieni, jeieli stol bedzie okragly? (W dalszym ciagu zakladamy, ze wszystkie panie siedza kolejno oraz panowie kolejno.) U waga: przy okraglym stole zadne miejsce nie jest wyroznione.

Zadanie 3. Z talii 52 kart losujemy bez zwracania 13. lle istnieje wynikow losowania, w ktorym wylosujemy dwa asy?

Zadanie 4. lle jest roznych liczb szesciocyfrowych utworzonych z cyfr 0, ... 5 tak, ie:

a) cyfry w liczbie sie nie powtarzaja, a cyfry 3 i 4 s,!: na miejscu pierwszym lub ostatnim?

b) cyfry w liczbie moga sie powtarzac, cyfry 3 i 4 s,!: na miejscu pierwszym lub ostatnim?

Rys. 2.6. Modelliniowy dla najmniejszej sumy kwadrat6w bledow

byla rowna zeru, a suma kwadratow tych bledow

byla moiliwie najmniejsza, to znaczy dla kaidej innej fj = a + bx suma bledow jest wieksza, Dobrana prosta w pewnym sensie najlepiej aproksymuje liniowa zaleznosc pomiedzy Xi, Vi, i = 1,2, ... ,n.

Zadanie 5. Znalezc liczbe wszystkich podzbiorow zbioru n-elementowego. Zadanie 6. Kosci do gry w domino S,!: znaczone dwoma liczbami. lle roznych kosci mozna utworzyc z liczb 0,1,2, ... , n'!

Zadanie 7. Na ile sposobow mozna zbudowac wieze z k bialych i n czarnych (k < n) klockow , tak aby zaden bialy klocek nie byl spiety z innym bialym klockiem?

Zadanie 8. W urnie znajduje sie n, ponumerowanych od 1 do n, kul, n > 3. Losujemy dwie bez zwracania.

107

108

___________________________________________________ 3. Zadania

a) Obliczyc prawdopodobienstwo, ze jedna z nich jest oznaczona liczba mniejsz~ od k, a druga wieksza od k, przy ustalonym kEN, 1 < k < n.

b) 0 bliczyc prawdopodobieiistwo, ze sum a "oznaczeri" jest dokladnie rowna k,l < k < n.

Zadanie 9. W dwoch urnach I, II znajduja si~ kule odpowiednio: I - 6 czarnych i 9 bialych , II - 5 czarnych i 15 bialych,

a) Losujemy jedna kule z urny I i jedna kule z urny II. Jakie jest prawdopodobieristwo, ze beda to kule tego samego koloru?

b) Losujemy jedna kule z urny I i d wie bez zwracania z urny II. Jakie jest prawdopodobienstwo otrzymania 1 kuli bialej i 2 czarnych?

c) Losujemy dwie kule z I urny i bez ogladania ich wrzucarny do urny II. Jakie jest prawdopodobieiistwo wyciagniecia kuli bialej z II urny (zmienionej)?

Zadanie 10. Z urny, w ktorej znajduje sie 20 kul bialych i 2 czarne, losujemy kolejno n kul. Znalezc najmniejsza liczbe losowari n, taka ze prawdopodobieristwo wylosowania chociaz raz czarnej kuli jest wieksze od 0,5, zakladajac, ze:

a) po kazdym losowaniu kula wraca do urny,

b) kule po losowaniu nie wracaja do urny,

Zadanie 11. W pewnej miejscowosci rodzi sie srednio 520 chlopcow i 480 dziewczynek na 1000 niemowlat. Jakie jest prawdopodobienstwo, ze w rodzinie pieciodzietnej:

a) liczba dziewczat jest wieksza od liczby chlopcow,

b) wszystkie dzieci s~ tej sarnej plci.

Zadanie 12. Urzadzenie sklada siE;) z trzech zespolow typu A, trzech zespolow typu B oraz czterech zespolow typu C. U rzadzenie przestaje dzialac, jesli dzialaja mniej niz dwa zespoly danego typu. Prawdopodobieiistwo zepsucia siE;) zespolu danego typu w pewnym okreslonym czasie jest rowne odpowiednio peA) = 0,1, PCB) = 0,1, P(C) = 0,2.

a) Obliczyc prawdopodobieiistwo, ze urzadzenie przestanie w danyrn czasie dzialac.

b) U rzadzenie przestalo dzialac; jakie jest prawdopodobieristwo, ze zdarzenie to zaszlo z powodu awarii zespolu C?

Zadanie 13. Do hurtowni papieru dostarcza sie towar z trzech fabry k F1, F2, F3, w proporcjach 4 : 3 : 2. Liczba brakow dostarczanych z tych fabryk wyraza sie stosunkiem 2 : 3 : 4.

a) Jakie jest prawdopodobieristwo, ze losowo wybrany towar pochodzi z fabryki F;, i = 1,2,3?

b) Jakie jest prawdopodobieiistwo, ze losowo pobrany towar bedzie wadliwy?

c) Pobrany losowo papier z magazynu okazal sie wadliwy, Jakie jest prawdopodobienstwo, ze pochodzi on z fabryki Fi, i = 1,2, 3?

3. Zadania ___

109

Zadanie 14. W lipcu przecietnie 5 dni w ciagu tygodnia jest slonecznych. Jakie jest prawdopodobieristwo, ze w czasie tygodniowej wycieczki b~d<!: co najmniej 3 dni sloneczne?

Zadanie 15. Ksiazka ma 500 stron i zawiera 500 bledow drukarskich. Obliczyc prawdopodobieristwo, ze losowo wybrana strona ma co najmniej 3 bledy,

Zadanie 16. Rzucamy n razy kostka. Wyznacz najbardziej prawdopodobna liczbe rzutow, w ktorych wypadnie 5 oczek, przyjmujac:

a) n = 11, b) n = 20, c) n = 78, d) n = 83.

Zadanie 17. Znalezc prawdopodobienstwo, ze 1 stycznia 3 osoby z n osobowej grupy ludzi beda obchodzic urodziny. Znalezc najbardziej prawdopodobna Iiczbe osob urodzonych 1 kwietnia, dla:

a)n=30, b)n=250, c) n= 1000.

Zadanie 18. Prawdopodobienstwo pojawienia sie co najmniej jednego zdarzenia A przy dwoch niezaleznych probach jest rowne 0,51. Jakie jest prawdopodobieristwo pojawienia sie tego zdarzenia w jednej probie?

Zadanie 19. Odcinek dlugosci 10 em podzielono w sposob losowy na 3 odcinki. Obliczyc prawdopodobieristwo, ze mozna z nich zbudowac trojkat.

Zadanie 20. Na okregu wybrano losowo trzy punkty. Jakie jest prawdopodobieristwo:

a) ze utworza one trojkat prostokatny,

b) ze utworza trojkat rozwartokatny?

Zadanie 21. Plaszczyzne podzielono prostymi rownoleglymi 0 rownych odleglosciach wynoszacych 2a. Na plaszczyzne tE;) rzucamy w sposob przypadkowy odcinek dlugosci 2l < 2a. Jakie jest prawdopodobieristwo tego, ze odcinek przetnie jedna z prostych? 1

Zadanie 22. Dwaj szachisci r6wnej sily gry rozgrywali mecz 0 nagrode 100 frankow. N agroda miala przypasc temu graczowi, ktory pierwszy zdobedzie 3 punkty. Umowiono sie przy tym, ze zwyciezca pojedynczego spotkania otrzymuje 1 punkt, przegrywajacy nie otrzymuje zadnego, a partie remisowe traktuje siE;) jako niebyte. Mecz zostal przerwany z przyczyn niezaleznych od obu graczy w chwili, gdy gracz A mial juz 2 punkty, a gracz B jeden punkt. Jak nalezy podzielic nagrode? 2

Zadanie 23. Rozwiazac Zadanie 22 przyjmujac, ze: a) gracz A rna 2 punkty, gracz B ma zero punktow,

1 Zadanie Buffona ,

2Zadanie dotyczy "problemu podzialu nagrody meczowej" kawalera de Mere, kt6rym zajmowali sie wielcy rnatematycy XV, XVI, i XVII wieku.

110

_______________________________________________ 3. Zadania

3. Zadania ___

111

b) w turnieju uczestniczy 3 szybkobiegaczy, po kazdym biegu zwyciezca otrzyrnuje jeden punkt, pozostali zawodnicy nie otrzymuja punkt6w, po przerwaniu z przyczyn obiektywnych turnieju zawodnik A rna 2 punkty, zawodnik B jeden punkt, zawodnik C zero punkt6w. Jak zawodnicy powinni podzielic 100-frankow~ nagrode?

Zadanie 24. Podczas badania dlugosci pr6bki zebrano wyniki:

a) 6,0; 6,1; 6,3; 5,9; 5,8; 6,0; 6,3; 6,2

b) 17,1915,18,16,18,16,17.

Przedstawic zebrane wyniki w forrnie tabelki zakladajac, ze uzyskane czesto. sci wynik6w s~ r6wne prawdopodobieristwom lch wystapienia, otrzyrnane zaS wyniki przyjrnujerny jako wartosci zrniennej losowej X. Wyznaczyc wartosc oczekiwana E(X) oraz wariancje VeX).

Zadanie 25. Podac rozklad zrniennej losowej i dystrybuante schernatu Bernoulliego dla:

a) n = 3, p = 0,5, b) n = 4, p = 0,5.

Zadanie 26. Zrnienna losowa X rna nastepujacy rozklad prawdopodobien-

X I -2 1-1 I ° 11

a) F(x) ~ { ~n("x)

{Ix

b) F(x) = ?/e2

ax

x+f3

dla x s °

dla ° < x :::; 7r • Wyznacz P(X > 7r /2).

dla 7r < x

dlax:::;O

dla ° < x :::; 2 . Wyznacz P(IXI < 1). dla 2 < x

4

Zadanie 30. Znalezc g~stosc prawdopodobieiistwa zrniennej losowej Y bedacej polern kola, kt6rego promieri jest zmienna losowa 0 rozkladzie jednostajnym, w przedziale (D;«).

Zadanie 31. Wyznaczyc funkcje gestosci zrniennej Y = In(X + 1), jezeli funkcja gestosci zrniennej X wyraza sie wzorern f(x) = In(x + 1) dla x E (O,e - 1) oraz f(x) = ° dla pozostalych x.

Zadanie 32. Wiedzac, ze dystrybuanta zrniennej X wyraza sie wzorern F(x) = lnx dla x E (l,e) oraz F(x) = ° dla x < 1 i F(x) = 1 dla x > e, wyznaczyc dystrybuante zrniennej Y = 3X + 2.

Zadanie 33. Funkcja gestosci zrniennej losowej X wyraza sie wzorern a) fx(x) _ { 1/2 dla 1 :::; x :::; 3

- ° dla pozostalych x '

b) f () {2e-2X dla x 2: °

X x = ° dla pozostalych x '

Wyznaczyc funkcje g~stosci zrniennych losowych: Y = 3X + 2, Z = (Y + 1)2.

Zadanie 34. Wiedzac, ze E(X) = 2, VeX) = 1, wyznaczyc E(Y) i V(Y) dla zrniennej losowej Y = 2X + 1.

Zadanie 35. Zalozrny, ie odczytujac pewien porniar, popelniamy blad X z przedzialu I = (-0,1; 0, 1). Prawdopodobienstwo, ze blad ten znajdzie sie w przedziale (a,b) C I, jest wprost proporcjonalne do (b - a), dla dowolnych a,b E I, a:::; b.

a) Wyznaczyc wspolczynnik proporcjonalnosci.

b) Wyznaczyc P(O < X < 0,05) i P(IXI < 0,05).

c) Wyznaczyc xI. X2, dla kt6rych P(X < xt} = 0,25, P(X > X2) = 0,75.

d) Wyznaczyc funkcje g~stosci oraz dystrybuante tej zrniennej losowej.

e) Wyznaczyc E(X), VeX).

Zadanie 36. Przyjrnijrny, ze czas X bezawaryjnej pracy badanego urzadzenia

{ le-x/l0 dla x > ° rna rozklad f( x) = 10

° dla pozostalych x

a) Obliczyc P(5 s X s 10), P(X :::; 100).

stwa: P(X = x) 0,1 c 0,3 0,4 .

a) Znajdz stala c.

b) Wyznacz rozklad prawdopodobieiistwa zrniennej Y = 2X + 1.

c) Wyznacz wartosci E(X), VeX), E(Y), V(Y).

1/16

Zadanie 28. Dla jakiej wartosci pararnetru a funkcja f( x) przedstawia rozklad prawdopodobieiistwa pewnej zrniennej losowej? Wyznacz jej dystrybuante; narysuj oba wykresy.

{ a(x + 1) dla - 1 < x :::; °

a) f(x) = -a(x - 1) dla ° < x :::; 1 . Wyznacz P(IXI > 1/2).

° dla pozostalych x

b) f(x) = { ~ dla 1 < x :::; a . Wyznacz P(X > e2).

° dla pozostalych x

Zadanie 29. Dla jakich wartosci pararnetru a, f3 funkcja F( x) przedstawia dystrybuants pewnej zrniennej losowej? Wyznacz jej funkcje gestosci, narysui oba wykresy.

112 3. Zadania

3. Zadania ___

113

b) Wyznaczyc dystrybuant~ tej zmiennej losowej.

c) Zinterpretowac otrzymane wyniki na wykresach funkcji g~stosci i dystry-

buanty.

d) Wyznaczyc E(X) i VeX).

e) Po jakim czasie maszyna ulegnie awarii z prawdopodobienstwem ex = 0,9?

Zadanie 37. Korzystajac z tablic funkcji wykladniczej, podac przyblizone wartosci dokladnych wynikow uzyskanych w Zadaniu 36 a) i e).

Zadanie 38. Wyznaczyc E(X) i VeX) dla zmiennych losowych opisanych w Zadaniach 28 i 29.

Zadanie 39. Prawdopodobieristwo trafienia do tarczy wynosi P = 0,6. Podejmujemy probe trafienia do tarczy az do uzyskania celu. Oznaczmy przez X liczbe prob (powtorzeri), Zakladajac niezaleznosc koIejnych doswiadczeri,

wyznaczyc:

a) funkcje prawdopodobienstwa zmiennej X,

b) dystrybuante,

c) prawdopodobienstwa, ze liczba prob bedzie: Pl - mniejsza od 3, P2 - nie

mniejsza niz 3, P3 -liczb~ z przedzialu [2,5),

d) wartosc oczekiwana i wariancje zmiennej losowej X.

Zadanie 40. Prawdopodobieiistwo, ze produkt poddany pr6bie nie wytrzyma tej proby, wynosi P = 0,01. Obliczyc prawdopodobienstwo, ze wsrod 200 takich produkt6w co najwyzej 2 nie wytrzymaja pr6by.

Zadanie 41. Z partii 250 sztuk towaru zawierajacej 18 sztuk wadliwych wylosowano bez zwrotu probe Itl-elementowa, W procesie kontroli wyrywkowej partia zostanie odrzucona, gdy w pr6bce znajda sie 2 lub wiecej sztuk wadliwych. Obliczyc prawdopodobienstwo przyjecia danej partii towaru.

Zadanie 42. Niech zmienna losowa X rna rozklad N (11, a).

a) Obliczyc P(IX - 111 < ka) dla: k = 1,96, k = 2,55.

b) Wyznaczyc x, dla kt6rych P(IX - 111 < xa) = ex gdy ex = 0,95, ex = 0,1.

Zadanie 43. Niech zmienna losowa X rna rozklad N(3, 2).

a) Obliczyc P(IXI < k) dla k = 1,6, k = 5,8,

b) wyznaczyc x, dla kt6rych P(X < x) = ex gdy: ex = 0,95, ex = 0,1.

Zadanie 44. Pewien automat produkuje czesoi, kt6rych dlugosc jest zmienna losowa 0 rozkladzie N(2; 0, 2). Wyznaczyc prawdopodobiefistwo otrzymania braku, jesli dopuszczalne dlugoscl czesci powinny si~ zawierac w przedziale (1,7; 2,3).

Zadanie 45. Amplituda X kolysania bocznego statku jest zmienna losowa 0 g~stosci f( x) = xe-x2/2 dla x > ° oraz f( x) = ° dla pozostalych x.

a) Obliczyc wartosc przecietna oraz wariancje zmiennej losowej.

b) Jakie jest prawdopodobieristwo wystapienia amplitudy wiekszej od wartosci oczeki wanej?

Zadanie 46. Pewne urzadzenie sklada si~ z dw6ch element6w pracujacych niezaleznie od siebie, polaczonych r6wnolegle. Czas bezawaryjnej pracy kaz-

dego z nich jest zmienna losowa 0 rozkladzie wykladniczym f( x) = ~e)." dla x > ° oraz f(x) = ° dla pozostalych x, odpowiednio przy Al = 10 oraz A2 = 20.

a) Obliczyc prawdopodobieristwo, ze urzadzenie bedzie pracowalo co najmniej przez 20 godzin.

b) Obliczyc prawdopodobieristwo, ze urzadzenie przestanie pracowac przed uplynieciem dziesiatej godziny.

c) Korzystajac z tablic, podac przyblizone wartosci wynik6w uzyskanych w punktach a) i b).

Zadanie 47. Korzystajac z tablic kwantyli rozkladu t Studenta,

a) wyznaczyc Pt'T < 2), Pt'I' > 1,7), przy 25 stopniach swobody,

b) wyznaczyc x, y, dla kt6rych Pt'I' < x) < 0,05, peT > y) < 0,01, ~rzy 25 stopniach swobody,

c) wyznaczyc, przy ilu stopniach swobody Pi'I' < 2) = 0,975.

Zadanie 48. Korzystajac z tablic kwantyli rozkladu X2,

a) wyznaczyc: P(X2 < 5), P(X2 > 29,8), przy 13 stopniach swobody,

b) wyznaczyc x, y, dla kt6rych P(X2 < x) < 0,005, P(X2 > x) < 0,01, przy 20 stopniach swobody,

c) wyznaczyc, przy ilu stopniach swobody P(X2 < 7) = 0,01.

Zadanie 49. Korzystajac z tablic rozkladu prawdopodobieiistwa Poissona,

a) wyznaczyc P(X = 5) oraz P(X ~ 3), przy Al = 0,5, A2 = 2,5, A3 = 5,

b) wyznaczyc, przy jakim A prawdopodobieiistwo uzyskania 7 sukces6w jest wieksze od: Pl = 0,0001, P2 = 0,001, P3 = 0,01.

Zadanie 50. Niech zmienne losowe X, Y maja rozklad prawdopodobienstwa podany w tabelach:

Xi ° 20 Yi 30

Pi 0,3 0,4 0,3' Pi 0,1 0,4 0,4 0,1

a) Znalezc rozklad zmiennej losowej: Z = X + Y, U = XY.

b) Zakladajac, ze zmienne X i Y s~ niezaleine, wyznaczyc: E(Z), V(Z), E(U), V(U).

Zadanie 51. Dane s~ funkcje prawdopodobieristwa niezaleznych zmiennych losowych X i Y:

114

------ 3. Zadania

Yi

3. Zadania ___

115

5

Xi 1

b) __:.--+-=-::-t~4--

Pi 0,2 ' Pi 0,1

Wyznaczyc funkcje prawdopodobienstwa zmiennych losowych: U = X + Y, V=XY.

Yi

5

Zadanie 57. Dystrybuanta dwuwymiarowej zmiennej losowej (X, Y) wyraia si~ funkcja

Pi

a) F(x, y) =

°

x2y2(3 - x - y)

y2(2_ y)

x2(2 - x)

1

dla x < ° lub y < ° dlaO<x:::;liO<y:::;l

dla x > 1 i ° < y :::; 1 dlaO<x:::;liy>l

dla X > 1 i y> 1

Zadanie 52. Dwuwymiarowa zmienna losowa (X, Y) rna rozklad w postaci:

X X

Y -1 ° 1 Y -1 ° 1

a) -1 1/8 1/4 1/8' b) ° 1/12 3/12 2/12·

1 1/8 1/8 1/4 1 1/12 4/12 1/12

Znalezc rozklad prawdopodobieristwa zmiennych losowych: ZI = X2 + y2, Z2 = 2X - 3Y, Z3 = XY. Wyznaczyc wartosc oczekiwana oraz wariancje dla zmiennych: X, Y, Zl, Z2, Z3.

Zadanie 53. Dana jest g~stosc dwuwymiarowej zmiennej losowej I( x, y). Zbadac, czy zmienne X i Y s~ niezaleine, jeieli

a) I(x,y) = 24x2(1- y) dla ° :::; x :::; 1 i ° :::; y :::; 1 oraz I(x,y) = ° dla pozostalych par (x, V),

b) I(x, y) = {2(6x + 4y + 3) dla -1 :::; x :::; 1 i -1 :::; Y :::; 1 oraz I(x, y) = ° dla pozostalych par (x, V),

c) I(x, y) = ~e-Y dla ° :::; x :::; 2 i ° :::; y oraz oraz I(x, y) = ° dla pozostalych par (x,y).

Zadanie 54. Niech zmienna losowa (X, Y) wyraia sie wzorem I(x, y) = {1/2 dla (x, y) E (0,1) X (0,2)

° dla pozostalych par (x, y)

a) Znalezc dystrybuante zmiennej Z = (X, Y) oraz dystrybuanty zmiennych brzegowych X i Y.

b) Wykazac, ie zmienne losowe s~ niezaleine.

c) Wyznaczyc; E(XY), E(X3y3).

Za~anie 55. Znalezc dystrybuante zmiennej losowej Z = (X, Y), zbadac, czy Zilllenne X i Y s~ niezaleine, jeieli g~stosc zmiennej Z wyraia si~ wzorem: a) I(x,y) = xy dla 0:::; x:::; 2,0:::; y:::; 1, oraz I(x,y) = ° dla pozostalych par (x, V),

b) I(x, y) = (x + y)e-(x+y) dla x > 0 i y > ° oraz I(x, y) = ° dla pozostalych par (x, V).

Zadanie 56. Znalezc dystrybuanty zmiennych dwuwymiarowych z Zadania 53.

° dla x < ° lub y < °

x2y2/9 dla ° :::; x :::; 1 i ° :::; y :::; 3

b) F(x,y) = x2 dlaO:::;x:::;liy>3 y2/9 dla x > 1 i ° :::; y :::; 3

1 dla x > 1 i y > 3

Znalezc g~stosc prawdopodobieiistwa rozkladow oraz gestosci rozkladow brzegowych i warunkowych.

Zadanie 58. Erozja T gleby przy r6inym nachyleniu X, spowodowana opadami 50 mm w ciagu 164 godzin, przedstawia sie nastepujaco:

X (w stopniach) ° 2,5 5,5 8,5 11

Y (w mm) 0,03 0,9 2,8 4,7 6,3·

a) Okreslic rozklad prawdopodobieristwa zmiennej (X, Y).

b) Wyznaczyc momenty zwykle: mO,I, ml,O, ml,l, mO,2, m2,O.

c) N apisac rowania prostych regresji drugiego rodzaju.

d) Korzystajac z nich, obliczyc erozje odpowiadajaca nachyleniom: 2°, 6°, 10° oraz przewidywane nachylenia podczas erozji 0,5 mm, 5 mm.

Zadanie 59. Dwuwymiarowa zmienna losowa (X, Y) rna rozklad podany w tabeli:

Yk \ Xi II 3 I 3,5 I 4 I 4,5 I 5

3 0,16 ° ° ° 0
3,5 0,12 0,04 ° ° °
4 0,08 0,08 0,08 ° °
4,5 ° 0,12 0,06 0,05 0,04
5 ° ° 0,01 0,08 0,08 gdzie X jest srednia ocen w sesji egzaminacyjnej w I semestrze dla losowo wybranego studenta, Y zas - srednia ocen w sesji tego samego studenta w VI semestrze.

a) Obliczyc wspolczynnik korelacji tych zmiennych losowych.

b) N apisac r6wnanie prostej regresji drugiego rodzaju zmiennej losowej Y wzgledem X.

Zadanie 60. G~stosc dwuwymiarowej zmiennej losowej wyraia sie wzorem

116

______________________________________ ~ 3. Zadania

3. Zadania ___

117

I(x, y) = x+y dla (x, y) E (0,1) x (0, 1), I(x, y) = ° dla pozostalych par (x, y)

a) Wyznaczyc wspolczynnik korealcji zmiennych X i Y.

b) Czy zmienne s~ nieskorelowane?

c) Wyznaczyc proste regresji drugiego rodzaju.

d) Wyznaczyc rozklady brzegowe.

e) Wyznaczyc rozklady warunkowe.

f) Wyznaczyc linie regresji pierwszego rodzaju.

Zadanie 61. Wyznaczyc funkcje charakterystyczne rozklad6w:

a) zero-jedynkowego,

b) licz by wyrzuconych orl6w w rzucie trzema monetami,

c) 0 gestosci I(x) = 1e-X/A dla x > ° oraz f(x) = ° dla pozostalych x (rozklad wykladniczy).

Zadanie 62. Wykazac, ze nizej podane funkcje nie mog,!: bye funkcjami charakterystycznymi zmiennych losowych:

a) !pC t) = e-it2,

b) <pC t) = J+liltl'

c) !pet) = 2 - It I dla It I < 1, oraz <pet) = 0 dla pozostalych t.

Zadanie 63. Korzystajac z funkcji charakterystycznych zmiennych losowych, wyznaczyc wartosc przecietna i wariancje dla tych zmiennych, jezeli

a) f(x) = e-x dlaz > ° oraz f(x) = ° dla pozostalych x,

b) f(x) = !e-ixi dla x E R (rozklad Laplace'a).

Zadanie 64. Podczas przeprowadzania badan statystycznych zebrano 50 wynik6w: 1,05; 1,20; 1,15; 1,15; 1,05; 1,20; 1,00; 1,10; 1,25; 1,25;

1,15; 1,00; 1,05; 1,25; 1,05; 1,10; 1,05; 1,20; 1,15; 1,05; 1,10; 1,10; 1,10; 1,05; 1,00; 1,15; 1,10; 1,15; 1,20; 1,15; 1,05; 1,25; 1,05; 1,10; 1,15; 1,25; 1,20; 1,00; 1,20; 1,05; 1,25; 1,20; 1,05; 1,15; 1,10; 1,20; 1,10; 1,10; 1,25; 1,00.

Sporzadzic szereg rozdzielczy dla: a) n = 4, b) n = 6 klas. Wyznaczyc w obu przypadkach x i a.

Zadanie 65. Uzupelnij tabele, a nastepnie wyznacz xi a.

Zadanie 66. Wyznaczyc metoda najwiekszej wiarygodnosci estymator parametru p w rozkladzie geometrycznym P(X = k) = p(1 - p)k-I, k = 1,2, ... na podstawie n-elementowej pr6by prostej (XI"'" Xn) pochodzacej z tego

rozkladu,

Zadanie 67. Cecha X rna rozklad norrnalny 0 znanej wartosci sredniej oraz nieznanym odchyleniu standardowym. Dla n-elementowej pr6by prostej usta-

n

lono estymator odchylenia standardowego a = k L: IXi - Ill· Dobrac parametr 1

k tak, aby byl on estymatorem nieobciazonym.

Zadanie 68. Metoda najwiekszej wiarygodnosci na podstawie n-elementowej pr6by prostej Xl, X2,"" Xn wyznaczyc estymator pararnetru A rozkladu wykladniczego.

·2 1 ~n X2 . .. kl d

Zadanie 69. Wykazac, ze estymator A = 211" 61 i wanancji roz a u wy-

kladniczego jest estymatorem nieobciazonym.

Zadanie 70. Przeprowadzono badania wsrod studentow, zadajac pytanie 0 czas poswiecany na nauke wlasna w ciagu tygodnia, i otrzymano wyniki (w godzinach) :

5,5; 4,0; 7,0; 4,0; 4,0; 5,0; 6,0; 7,5; 3,0; 8,0; 2,5;

5,5; 5,0; 6,0; 5,0; 3,5; 6,0; 5,5; 8,0; 2,0; 7,0; 2,5. .

Wyznaczyc przedzial ufnosci dla wartosci sredniej oraz wariancji przy poziomie

istotnosci a = 0,95.

Zadanie 71. Z partii towaru pobrano 15-elementow,!: probe, na jej podstawie ustalic, na poziomie istotnosci a = 0,90, przedzial ufnosci dla wartosci sred-

niej:

4,4; 4,2; 3,7; 3,9; 4,1; 4,0; 4,1; 4,0; 4,2; 4,6; 3,7; 4,3; 4,4; 4,2; 4,0. Zadanie 72. W celu wyznaczenia ladunku elektronu wykonano 26 pomiar6w tego ladunku metoda Millikana, otrzymujac wyniki

x = 1,574.10-19, S = 0,043.10-19.

Numer Przedzial Srodek Licznosc Czestosc Czestosc
klasy klasowy klasy klasy klasy skumulowana
Xi ni ndn 2:1=1 xdn
1 20 - .. ... 15 ... ...
... .. - .. .., 20 ... ...
.. , .. - .. .. , 50 ... ..,
... .. - .. ... 40 '" .. ,
... .. - 40 ... 25 ... .., Zakladajac, ze bledy pomiarow maja rozklad normalny 0 nie~nanym a, wyznaczyc 88% przedzial ufnosci dla prawdziwej wartosci wielkosci ladunku elek-

trycznego.

Zadanie 73. Przed dokonaniem zmian w silniku samochodu dokonano.8 pomiarow zuzycia paliwa i otrzymano wyniki Xi, nastepnie takie same badania wykonano po dokonaniu zmian i otrzymano wyniki Yj·

5 7 6 5 6 1 5 5 5 0'61'62'59' YJ' :4,9,'5,0;4,7;5,0;5,0;4,7.

Xi: , ; , ; , ; , ; , , , , , , , ,

118

_________________________________________________ 3. Zadania

3. Zadania ___

Zalozrny, ze zuzycie paliwa jest zrnienna 0 rozkladzie normalnym i ze wariancja nie ulegla zmianie. Zweryfikowac hipoteze 0 jednakowym zuzyciu paliwa przed zmiana i po zmianie wobec hipotezy alternatywnej "zuzycie paliwa sie zmniejszylo" na poziomie istotnosci 0: = 0, 1.

119 Zada~i~ 79. W celu sprawdzenia, czy natezenie ruchu, na danej trasie, w dni prze~sw:~tecz~e (xd jest wieksze niz w dni powszednie (X2), zbadano Ilczbe pasazerow w ciagu 15 kolejnych tygodni i otrzymano wyniki

Xl 400-600 600-800 1000-1200 1200-1400

1000-1150

Zadanie 74. W celu okreslenia sredniej temperatury w lipcu w danej miejscowosci zebrano wyniki, dotyczace sredniej temperatury w lipcu, z ostatnich 8 lat:

23,22, 18, 25, 20, 21, 27, 20.

N a poziomie istotnosci 0: = 0,05 zweryfikowac hipoteze 0 sredniej temperaturze r6wnej 24, przy:

a) hipotezie alternatywnej J.lo ::J 24,

b) hipotezie alternatywnej J.lo < 24.

Zadanie 75. W celu sprawdzenia poprawnosci maszyny wazacej zwazono 10 partii towaru i otrzymano wyniki:

12,05; 12,20; 12,00; 11,95; 12,10; 12,00; 11,80; 11,95; 12,10; 12,05.

Zweryfikowac na poziomie istotnosci 0: = 0,05 hipoteze:

a) H : 0'2 = 0,035 wobec hipotezy alternatywnej a ::J 0,035,

b) H : 0'2 = 0,035 wobec hipotezy alternatywnej a < 0,035,

c) H : 0'2 = 0,035 wobec hipotezy alternatywnej a > 0,035.

Zadanie 76. Otrzymano dui~ partie towaru. Zweryfikowac, na poziomie istotnosci 0: = 0,01, hipoteze producenta, ie srednia masa towaru wynosi 0,25 na podstawie otrzymanych wynikow w 10 probach:

Xi 0,215-0,225 0,225-0,235 0,235-0,245 0,245-0,255 0,255·0,265

ni 2 2 3 2 1

a) wiedzac, ie odchylenie standardowe w calej partii towaru wynosi 0'= 0,015,

b) nie znajac odchylenia standardowego.

Zadanie 77. Temperatura w chlodni rna rozklad normalny N(-15,a). Wykonano 60 pomiarow i na ich podstawie wyznaczono 82 = 5. Zweryfikowac, przy poziomie ufnosci 0: = 0, 1, hipoteze 0'2 = 3 przy hipotezie alternatywnej 0.2> 3.

Zadanie 78. Otrzymano od producenta wage. Chcac zweryfikowac hipoteze a = 0,1, zwazono 100-krotnie towar, otrzymano wyniki i zestawiono je w tabeli:

ni

3

N a poziomie istotnosci 0: = 0, 002 zweryfikowac hipoteze 0 rownych nat~ieniach ruchu na rzecz hipotezy alternatywnej, ze srednia liczba pasazerow w dni przedswlateczne jest wieksza niz w dni powszednie, jeieli:

a) nie znamy odchylenia standartowego pomiarow,

b) zakladamy, ie odchylenie standardowe pomiarow wynosi 0'1 = 0'2 = 200.

Zadanie 80. Fabryka produkuje towar na eksport i na rynek krajowy. Przebadano 200 sztuk towaru na rynek krajowy i otrzymano wyniki Xl = 10,05, 8~ = 0,4 oraz 500 sztuk przeznaczonych na eksport i otrzymano wyniki X2 = 9, 8, 8~ = 0,2. Na poziomie istotnosci 0: = 0,01 zweryfikowac:

a) hipoteze H : J.ll = J.l2 przy hipotezie alternatywnej K: J.ll::J J.l2,

b) hipoteze H: a'f = 0,2 przy hipotezie alternatywnej K: 0'1 > 0,2,'

c) hipoteze H: J.ll = 10 przy hipotezie alternatywnej K: J.ll > 10,

d) hipoteze H: J.l2 = 10 przy hipotezie alternatywnej K: J.l2 < 10.

X· ,

7,4-7,6

ni

10

Czy otrzymane wyniki potwierdzaja tEil hipoteze, czy tei swiadcza 0 tym, ze dokladnosc wagi jest wieksza, to znaczy a> 0.1?

Rozdzial4

Odpowiedzi

• • •

1 rozwiazama

1. W kazdym wierszu i w kazdej kolumnie moze stac tylko jedna wieza. Kazdej kolumnie przyporzadkujemy numer wiersza, w kt6rym stoi wieza. Liczba takich przyporzadkowari jest r6wna liczbie permutacji zbioru 8-elementowego, Pa = 8!.

2. a) Z jednej strony stolu mozna usadzic panie na P4 = 4! sposob6w, podobnie jak panow z drugiej strony stolu. Poniewaz jednak panie mOM sie zmienic z panami strona stolu, to wszystkich mosliwosci jest 2( 4!)2. b) Przy okraglym stole nie rozrozniamy

miejsc, zatem mozliwosci jest (4!)2. .

3. Dwa asy losujemy z czterech na C~ = (~) sposobow, pozostalych 11 kart losujemy z 48 kart na ClJ = (i~) sposob6w. Wszystkich wynik6w losowaniajest (~) (i~).

4. a) Najpierw uzupelniamy miejsce pierwsze i ostatnie cyframi 3 oraz 4. Dokonujemy tego na 2 sposoby. N a pozostalych 4 miejscach ustawiamy pozostale 4 cyfry na P4 = 4! sposobow. Ostatecznie takich liczb bedzie 2· 4!. b) Jezeli cyfry mega sie powtarzac, pierwsze i ostatnie miejsce ustalamy na 4 sposoby, to pozostale 4 miejsca zapelniamy 6 cyframi (i mozemy je powtarzac) na pi = 64 sposob6w. Ostatecznie liczb takich bedzie 4 . 64.

5. Zbi6r pusty traktujemy jako podzbi6r O-elementowy, ogolnie k-elementowych podzbiorow zbioru n-elemetowego jest (~), n:::; k. Wszystkich podzbior6w jest

(~) + (~) + ... + (n ~ 1) + (~) = (1 + l)n = 2n.

6. Liczba kosci domino, na ktorych nie powtarzaja siE( numery, wynosi (n~l). Ponadto jest (n + 1) kosci 0 powtarzajacych sie numerach. Ostatecznie liczba kosci wynosi (n~l) + (n + 1) = ~(n + l)(n + 2).

7. Ukladamy w rzedzie na podlodze czarne klocki, tak aby pomiedzy nimi mozna bylo dolozyc po jednym bialym klocku. Biale klocki (jest ich k) dokladamy do utworzonego rzedu w (n + 1) miejscach (n - 1 pomiedzy klockami czarnymi, jeden przed czarnymi klockami i jeden po nich). Biale klocki dokladamy na C~+l = (nt1) sposobow. Na koniec budujemy wieze; na (nt1) sposob6w.

8. n = {w : w = {p, q},p, q = 1,2, ... , n, p =1= ql_ n = C~ = (~),

a) Ak = {w En: p < k i q > k, 0 < k < n}, Ak = (k - l)(n - k),

121

122

__________________ 4. Odpowiedzi i rozwiazania

4. Odpowiedzi i rozwiazania _

123

peAk) = 2(k~t2~;t), b) Bk = {w En: p+ q = k, 0< k < n}, dla nieparzystych k:

Bk = ~(k -1), P(Bk) = ntn--\)' dla parzystych k, Bk = ~ - 1), P(Bk) = nt;':1)' 9. a) n = {w: w = {k,n},k E u.,« E UJ[}, n = (\5)(21°),

A = {w En: k = n = b lub k = n = e}, A = (i)(\5) + mm, peA) = 11/20. b) n = {w : w = {k, nl, n2}, k E U[, nl, n2 E UJ[}, n = (\5) (22°),

A = {w En: (k = bini = e i n2 = e) lub (k = e i nl = b i n2 = e)},

A = (i)@ + m (15)(~), peA) = 18/95.

c) Prawdopodobienstwo calkowite. Ai - zdarzenie polegajace na tym, ze do II urny dolozono i kul bialych, i = 0,1,2, P(Ao) = 5/35, P(Ad = 18/35, P(A2) = 9/35.

B - zdarzenie polegajace na wylosowaniu kuli bialej z II urny,

P(B/A;) = (15 + i)/22, i = 0,1,2. PCB) = L~ P(B/A;)P(A;) ~ 0,67 ...

10. a) Schemat Bernoulliego. p = 1/11. Szukamy najmniejszego n, takiego ze

1 - Pn(o) > 0,5, czyli (10/11t < 0,5; wyznaczamy n = 8. b) Wybieramy n kul z urny. Jezeli zdarzenie Bn polega na tym, ze nie wylosowano kuli bialej, to szukamy najmniejszego n, takiego aby 1 - P(Bn) > 0,5, gdzie P(Bn) = e~) : (~2), czyli

(21-n)(22-n) ° 5 W 6

21.22 <,. yznaczamy n = .

11. Schemat Bernoulliego, p - prawdopodobieiistwo urodzenia dziewczynki, p = 0,48. a) P5(3) + P5( 4) + P5(5) ~ 0,299 + 0,138 + 0,025 = 0,462. b) P5(0) + P5(5) = (0,48)5 + (0, 52)5 ~ 0,064.

12. a) Prawdopodobieiistwo calkowite. peA") - proporcjonalny udzial zespolow typu A w maszynie, peA") = 0,3, P(B·) = 0,3, P(C") = 0,4. Z - zdarzenie polegajace na zepsuciu sie maszyny. Maszyna zepsuje si~ z powodu awarii podzespo- 16w typu A lub B, jezeli popsuja sie co najmniej dwa z trzech, czyli P(Z/A") = P(Z/B") = P3(3) + P3(2) = 0,028, gdzie p = peA) = 0,1, podobnie P(Z/C") = P4( 4) + P4(3) = 0,0272. Korzystamy ze wzoru na prawdopodobienstwo calkowite P(Z) = P(Z/A·)P(A") + P(Z/B")P(B") + P(Z/C")P(C") = 0,02768. b) Wz6r Bayesa. P(C" /Z) = p(c'),af/c') = 0,393.

13. a) P(Fd = 4/9, P(A2) = 3/9, P(A3) = 2/9. b) Prawdopodobieristwo calkowite, PCB;) - prawdopodobieristwo wyprodukowania braku w fabryce F;, P(Bd = 2/9, P(B2) = 3/9, P(B3) = 4/9, B - pobranie z magazynu wadliwego towaru, PCB) =

,,3 PCB )P(F) 25/81 ) W 'B P(F /B) P(F,)P(B/F,) P(F,t(B,)

wi i i = . c zor ayesa, ; = PCB) = P B) ,

P(Fd B) = 12/25, P(F2/ B) = 9/25, P(F3/ B) = 4/25.

14. Schemat Bernoulliego, p - prawdopodobieristwo, ze lipcowy dzieri bedzie sloneczny, p = 5/7, n = 7, k ~ 3, P7(k ~ 3) = 1 - P7(k < 3) = 1 - (P7(0) + P7(1) + P7(2» = 1 - «2/7)7 + 7(5/7)(2/7)6 + 21(5/7)2(2/7)5) ~ 0,976.

15. Uog61nijmy zadanie, zakladajac, ze zar6wno stron, jakJ bledow jest n. Liczba wszystkich mozliwych roslozeri n bledow na n stronach jest IT = n", oznaczmy przez Ai - zdarzenie, ze na losowo wybranej stronie (np. pierwszej) jest i bledow, Ao = (n _1)n, Al = n(n - l)n-l, Al = (~)(n - l)n-2, og61nie Ai = (~)(n - l)n-i, i = 0,1, ... Jeseli przez A oznaczymy zdarzenie sprzyjajace, to

peA) = 1- L~ (7)(nn-"l)"-' = (n~l r-l (~- 1).

Kladac n = 500, otrzymujemy peA) ~ 0,08.

16. Schemat Bernoulliego, najbardziej prawdopodobna liczba sukces6w ko miesci sie w przedziale (n + 1)p - 1 :5 ko :5 (n + l)p, p = 1/6. a) n = 11, 1 < ko < 2 przyjmujemy ko = 1 oraz ko = 2, b) n = 20, ko = 13, c) n = 78, Ko = 13, d) n =-83: ko = 13 oraz ko = 14.

17. Schemat Bernoulliego, p = 1/365, najbardziej prawdopodobna liczba sukces6w ko rniesci sie w przedziale (n+l)p-1 :5 ko :5 (n+1)p. a) n = 30, p = P3o(3) = 0,0477, ko = 0, b) n = 250, p = P250(3) = 0,027, ko = 0, c) n = 1000, p = Plooo(3) = 0,221, ko = 2,

18. S~hemat Berno~lliego, nieznane p, wiemy, ze P2(1) + P2(2) = 0,51, zatem 2p(lp) + p = 0,51, czyli p = 0,3.

~9. Prawdopodobieristwo geometryczne. Kazdy podzial odcinka mozna opisac par~ liczb (x, y), gdzie x - dlugosc pierwszego odcinka, y - dlugosc drugiego odcinka trzeci odcinek rna w6wczas dlugosc 10 - x - y, oczywiscie x + y < 10. Zbi6r punktow spelniajacych te warunki tworzy przestrzeri n w ksztalcie trojkata 0 wierzcholkach (0,0), (10,0), (0, 10), jego pole men) = 50. Zdarzeniu sprzyjajacemu odpowiadaja punkty z n spelniajace dodatkowo trzy warunki: x + y > 10 - x - y, x + (10 - x - y) > y, y + (10 - x - y) > x, gdyz suma dowolnych dw6ch odcink6w musi bye wieksza od trzeciego odcinka, aby rnosna bylo zbudowac trojkat. Warunki te s~ rownowazne warunkom x + y > 5, y < 5, x < 5, kt6re opisuja zbi6r zdarzeri sprzyjajqcych, jego miara wynosi meA) = 12,5. Zatem peA) = 0,25.

20. Prawdopodobieiistwo geometryczne. Ustalmy, bez straty ogolnosci, ze nasz okrag jest jednostkowy, a jednym z punkt6w jest PI = 1. Kazdy wyb6r pozostalych dw6ch punkt6w mozna opisac jako wyb6r dw6ch katow srodkowych: x - kat srodkowy oparty na jednym boku trojkata, y - k~t srodkowy oparty na drugim boku trojkata, trzeci k~t srodkowy rna miare 271' - x - y, oczywiscie x < 271', y < 271', X + y < 271'. Wobec tego przestrzeri w opisujemy w ukladzie wspolrzednych jako tr6jk~t 0 wierzcholkach (0,0), (0, 271'), (271', 0), a jego miara wynosi men) = 271'2. a) Aby trojkqt byl prostokatny, kt6rys kat srodkowy powinien bye r6wny 71', zatem x = 71' lub y = 71' lub x + y = 71'. Miara takiego zbioru wynosi 0, wobec tego peA) = 0. b) Aby tr6jk~t byl rozwartokatny, jeden z jego katow musi bye wiekszy od 71'/2, zatem x + y > 71' lub y > 71' lub x > 71'. Cz~se wsp6lna zbioru wyznaczonego z tych warunk6w i zbioru n to trzy trojkaty, kazdy 0 polu r6wnym ~71'2, ostatecznie peA) = 3/4.

21. Prawdopodobieiistwo geometryczne. Zalozmy, ze dane proste to proste x = k2a, k E Z. Ograniczmy sie, bez straty ogolnosci, do przypadku, kiedy srodek danego odcinka bedzie lesal na osi OX, x =E (0, a), jego zaS k~t nachylenia do osi OX, 0: E (~71', ~71'). Miara tak opisanego n wynosi men) = a7l'. Zbi6r zdarzeri sprzyjajq,cych

3

jest dodatkowo opisany warunkiem: -I cos 0: > x, zatem meA) = - I1; 1 cos o:do: = I.

2

Ostatecznie peA) = 1/(a7l').

22. Prawdopodobieristwo peA), ze mecz zakoriczylby si~ sukcesem zawodnika A, wynosi peA) = 0,75, a PCB), ze sukces odniesie zawodnik B, wynosi PCB) = 0,25. I w takim stosunku nalezy podsielic nagrode.

23. a) peA) = 7/8, PCB) = 1/8 nagroda powinna zostac podzielona w stosunku 7 : 1, b) peA) = 20/27, gracz A moze zakoriczyc rozgrywki po jednym meczu z

124

________________ 4. Odpowiedzi i rozwiazania

4. Odpowiedzi i rozwiazania ----- 125

26. a) c= 0,2 b)

X -2 -1 0 1
2X + 1 -3 -1 1 3
P(X = x) 0,1 c 0,3 0,4 31. Szukamy funkcji gestosci zmiennej Y = g(X) = In(X +1) dla danego X. Podobnie jak we wczesniejssym zadaniu wyznaczamy hey) = eY -1 i stosujac odpowiedni wz6r, otrzymujemy fX2(X) = xex dla x E (0,1) oraz fX2(X) = 0 dla pozostalych x.

32. Wiadomo, ze fy(x) = fx(h(y»lh'(y)1, 0 ile Y = g(X), g jest funkcja monotoniczna, 0 funkcji odwrotnej h, zatem, przy dodatkowym zalozeniu h'(y) > 0, mamy Fy(y) = f~oo fx(h(u»h'(u)du. Dokonujac zamiany zmiennych h(u) = t, otrzymujemy

Fy(y) = f~oo(Y)fx(t)dt = Fx(h(y».

W naszym przypadku g(x) = 2x + 1 jest funkcja monotonicznq, funkcja do niej odwrotna jest hey) = (y - 1)/2. Korzystajac z wyprowadzonego wzoru, otrzymamy Fy(y) = In ~ dla hey) E (1, e), tzn. y E (3, 2e + 1) oraz Fy(y) = 0 dla y < 3 i Fy(y) = 1 dla y > 2e + 1.

33. a) fy(y) = { 1/6 dla 5 ~ y ~ 11 ,fz(z) = { 127; dla 36 < z < 144

o dla poz. y 0 dla poz. z

b)fy(y) = { ~e-HY-2) dlay;::2 ,fZ(Z)={ 3./ze2-~..fi dlaz;::9 .

o dla poz. y 0 dla poz. z

34. Poniewaz VeX) = E(X2) - (E(X»2 = 1, E(X) = 2, wiec E(X2) = 5, E(Y) = E(2X + 1) = 2E(X) + 1 = 5. Podobnie V(Y) = V(y2) - (V(y»2 = E(4X2 + 4X + 1) - (E(YW = 4 . 5 + 4·2 + 1 - 52 = 4.

24. a) 6,3 E(X) = 6,075,
Pi 2/8 VeX) = 0,029.
b) E(X) = 17,
Pi VeX) = 1,5.
b) F(.) = { 0 dla x::; 0 0 dla x::; 0
1/8 dla 0 < x ~ 1 1/16 dla 0 < x ~ 1
25. 1/2 dla 1 < x ~ 2 , F(x) = 5/16 dla 1 < x ::; 2
11/16 dla 2 < x ::; 3
7/8 dla 2 < x::; 3 15/16 dla 3 < x::; 4
1 dla 3 < x 1 dla 4 < x c) E(X) = 0, VeX) = 1, E(Y) = 1, V(Y) = 4. 27. a) c = 1/8,

b)

X -4 -3 -2 -1 0 1 2 3 4
Pi 1/16 1/16 1/8 1/4 1/8 1/8 1/8 1/16 1/16
X~-4 12 5 0 -3 -4 -3 0 5 12 35. a) Wsp6lczynnik proporcjonalnosci wyznaczamy z warunku P(-O,1 < X < 0,1) = k(O, 1- (-0,1» = 1, zatem k = 5,

b) PI = 5(0,05 - 0) = 0,25, P2 = 5(0,05 - (-0,05» = 0,5, c) Xl spelnia warunek 5(XI - (-0,1» = 0,25, Xl = -0,5, podobnie X2 spelnia warunek 5(0,1- X2) = 0,75,

X2 = -0,5, { 0

5 dla x E I

d) f(x) = {o dl ' F(x) = 5x +0,5

a poz. x 1

e) E(X) = 0, VeX) = 1/300.

dla x::; -0,1 dla x E I

dla 0,1::; x

. . Y I -4 I -3 1 0 1 5 112

dane przenosimy do tabeh: qi 1/8 3/8 2/8 1/8 1/8 '

c) E(X) = 0,75, VeX) = 3,94, E(Y) = 0,5, V(Y) = 20,25.

{ 0 dla x::;-1

(x2 + 2x + 1)/2 dla - 1 < x ::; 0

28. a) a = 1, F(X) = (l-x2 + 2x + 1)/2 dla 0 < x ::; 1

dla 1 < x

P(IXI < 1/2) = 0,75,

{ 0 dla x s 1

b) a = e, F(X) = 11ll x dla 1 < x ~ e ,P(X > e2) = O. dla e < x

29. a)a=I/2,,B=I,f(X)={ ~COS(X/2) ~~:~o~o:t~I;ChX ,p=I-~,

{ex /2 dla x < 0

b)a=I,,B=2,f(x)= 0 dlaO<x~2 ,p=e2/·

2/(x + 2)2 dla 2 < x

30. fx(x) = l/a, dla x E (0, a), oraz fx(x) = 0 dla pozostalych x. Ponadto Y = 7TX2, g(x) = 7TX2, dla x > 0 9 ma funkcje odwrotna hey) = ...;:;;r;, h'(y) = ~ J,r, zatem

fy(y) = fx(h(y»h'(y), dla hey) E (0, a), czyli fy(y) = 2 1;:;;;; dla y E (0, 7T2a) oraz

ay7TY

fy(y) = 0 dla pozostalych y.

36. a) PI = e-I/2 - e-I, P2 = 1- e-IO,

b) F(x) = { 0 dla x s 0 d) E(X) = 10, VeX) = 100,

1 - e-O,Ix dla x > 0 ' e) x = 10 In 10.

37. 36a) e-I/2 = 0,6065, e-I = 0,3679, e-l0 = 0, PI = 0,9744, P2=1, 36e) In 10 = y, to e-Y - 0, 1, y = 4,6, x = 46.

38. 28a) E(X) = 0, VeX) = 1/6, 28b) E(X) = e -1, VeX) = 0, 5(e - 1)(e - 3), 29a) E(X) = 7T- 2, VeX) = 27T2 - 8 - (7T - 8)2 = 4p-12, 29b) E(X) = VeX) = 00.

39. a) P(X = k) = (0,4)k-I(0,6), b) F(x) = 0 dla x ~ 0, F(x) = 1- (0,4)k, dla k - 1 < x ::; k, k = 1,2, ... , c) PI = P(X < 3) = F(3) = 0,84, P2 = P(X ;:: 3) = 1 - F(3) = 0,16, P3 = F(5) - F(2) = 0,3744, d) E(X) = 1,67, u = 1,05.

40. Rozklad Poissona, A = np = 2, peA) = 0,68.

41. Rozklad Poissona, P = 18/250, A = np = 0,72, peA) = 0,84.

126

________________ 4. Odpowiedzi i rozwiazania

4. Odpowiedzi i rozwiazania

127

42. Utw6rzmy nowa zrnienna Xn = X - J.l, X = Xnu + J.l. Zmienna Xn ma rozklad

U

normalny N(O,l). Zatem P(IX - J.l1 < ku) = P(IXnl < k) = 2P(Xn < k) - 1.

a) k = 1,96, z tablicy rozkladu normalnego odczytujemy, ze 2P(Xn < k) - 1 = 2 . 0,975 - 1 = 0,95, dla k = 2,55 2P(Xn < k) - 1 = 2 . 0,9963 - 1 = 0, 9926, b) a = 0,95, szukamy x, dla kt6rego 2P(Xn < x) -1 = 0,95, czyli P(Xn < x) = 0,975, odczytujemy z tablic x = 1,96, dla a = 0, 1, 2P(Xn < x) -1 = 0,55, zatem x = 0, 13.

15

XY

Pi

43. a) Zmienna Xn = X ;-3 ma rozklad normalny, zatem dla k = 1,6 mamy P(IXI < k) = P(-2,3 < x, < -0,7) = P(0,7 < x, < 2,3) = 0,9893 - 0,7580 = 0,2313, dla k = 5,8, P(lXI < 5,8) = P(Xn < 1,4) - P(X < -4,4) = 0,9192. b) Podobnie P(X < x) = P(Xn < .r23) = a, stad dla a = 0,95 mamy x = 6.26, dla a = 0,1 x = -5,56.

44. Zmienna Xn = ~22 ma rozklad normalny oraz P(1,7 < X < 2,3) = 2P(Xn < 1,5) -1 = 0,8664, zatem prawdopodobieristwo otrzymania braku wynosi 1- 0,8664 = 0,1336.

45. a) E(X) = ft)Q x2e-.r' /2dx = ..;;ti, E(X2) = s: x3e-.r' /2dx = 2, VeX) =

E(X2) - (E(X)? = 4 - 7r/2, b) P(X > E(X» = J+oo xe-.r'/2dx = e-,,'/4.

#

46. Wyznaczamy dystrybuante F(x) = 1 - e-.r/)... a) P(Xl > 20 i X2 > 20) = P(Xl > 20)P(X2 > 20) = e-2e-l = e-3,

b) P(Xl < 10 lub X2 < 10) = P(Xl < 10) + P(X2 < 20) - P(Xl < 10 iX2 < 10) = e-le-l/2 = e-3/2•

47. a) Pt'I' < 2) = 0,975, peT > 1,7) = 1 - 0,95 = 0,05, b) Pt'I' < xo) + peT < -xo) = 1, peT < -xo) = 1 - 0,005 = 0, 995 stad -Xo = 2,787, x < -2,787. P(T> xo) = 0,01, czyli peT < xo) = 0,99 Xo = 2,485, x > 2,485, c) n = 60.

48. a) P(X2 < 5) = 0,025, P(X2 > 29,8) = 0,005, b) P(X2 < x) < 0,005, x < 7,434, P(X2 > x) < 0,01, x > 37,566, c) n = 18.

49. a) P(X = 5; 0, 5) = 0,000158, P(X = 5; 2, 5) = 0,066801, P(X = 5; 5) = 0,175467, P(X ~ 3; 0, 5) = 0,6065 + 0,3033 + 0,0758 = 0,0126 = 0,9982, P(X ~ 3; 2, 5) = 0,757576, P(X ~ 3; 5) = 0,265026, b) P(X = 7; Ai) > Pi, Pl = 0,0001, Al > 1, P2 = 0,001, A2 ~ 1,6 P3 = 0,01, A3 > 2,5.

50. Ponissze tabele obrazuja spos6b wyznaczania dopuszczalnych wartosci nowych zmiennych, s~ to wartosci "w licznikach", oraz prawdopodobieiistwa ich wystapienia, s~ to wartosci "w mianownikach" .

X +y II O~l

6

Ui

0,34 0,22 0,04

o 1 2 5

0,02 '

Pi

0,6 0,1 0,08 0,02'

) Zl = X2 + Y21 1 I 2 Z3 = XY I -1 I 0 I 1

52. a P 3/8 5/8' P 2/8 3/8 3/8 '

Z2 = 2X - 3Y I -5 I -3 I -1 I 3 i 5

P 1/8 1/8 3/8 2/8 1/8 '

E(X) = 1/8, VeX) = 39/64, E(Y) = 0, V(Y) = 1, E(Zt} = 13/8, V(Zl) = 15/64, E(Z2) = 0, V(Z2) = 10, E(Z3) = 1/8, V(Z3) = 39/64,

Zl = x2 + y21 0 I 1 I 2 Z3 = XY I -1 I 0 I 1

b) P 3/12 7/12 2/12 ' P 1/12 10/12 1/12 '

Z2 = 2X - 3Y -3 -2 -1 2

P 1/12 4/12 1/12 1/2 3/12 2/12'

E(X) = 1/12, VeX) = 59/144, E(Y) = 1/2, V(Y) = 1/4, E(Zl) = 11/12, V(Zt} = 59/144, E(Z2) = -4/3, V(Z2) = 79/18, E(Z3) = 0, V(Z3) = 1/6.

53. Wyznaczamy rozklady brzegowe a) hex) = i: f(x, u)du = 3x2, dla 0 ~ x ~ 1, hey) = r~:: f(v, y)dv = 2(1 - y) dla 0 ~ y ~ 1. Zmienne s~ niezalezne, gdyz h(x)h(y) = f(x, y), b) hex) = x + 1/2, dla -1 ~ x ~ 1, hey) = 2y/3 + 1/2 dla -1 < Y < 1. Zmienne nie s<!: niezalezne, gdyz h(x)h(Y) of f(x,y), c) hex) =~, dla o ~ ~ ~ 2, hey) = «» dla y ~ 0, zmienne s<!: niesalezne.

{ 0 dla x s 0 b y ~ 0

xy/2 dla 0 ~ x ~ 1, 0 < y ~ 2

54. a) Fz(x,y) = x dla 0 ~ x ~ 1, , y> 2

y/2 dla x > 1, 0 < y ~ 2

1 dla x > 1, y > 2

{ 0 dla x < 0 { 0

Fl(x) = x dla 0 ~ x ~ 1, F2(y) = y/2

1 dla x> 1 1

) E(XY) = 1/2 = E(X3y3).

{ 0 dla x < 0 lub y < 0

x2y2/4 dla 0 ~ x ~ 2 i 0 ~ y ~ 1

,5. a) F(x, y) = x2/4 dla 0 ~ x ~ 2 i y > 1

y2 dla x > 2 i 0 ~ y ~ 1

1 dla x > 2 i y > 1

dla x ~ 0

dla 0 ~ y s 2 , dla y> 2

Pi

128

----------------- 4. Odpowiedzi i rozwiazania

4. Odpowiedzi i tozwiazanja _

129

Fl(X) = F(x, 1), F2(y) = F(2, V),

{ 0 dla x < 0 {O dla y < 0

Fl(X) = x2/4 dlaO:::;x:::;2 ,F2(y) y2 dlaO:::;y:::;l

1 dla x > 2 1 . dla y > 1

Ponicwaz Fz(x,y) = Fl(X)' F2(y) , zatem zmienne S'l; niezalezne.

b) F(x,y) = t [2 + e-X(2x + 1) + e-Y(2y + 1) + (x + y + 2)e-(x+y)] dla x> 0 i y > o oraz F(x, y) = 0 dla pozostalych (x, V).

Fl(x) = lim F(x, y) = 1 + te-X(2x + 1) dla x> 0 oraz Fl(x) = 0 dla pozostalych

y-+oo

x. Podobnie F2(y) = 1 + te-Y(2y + 1) dla y > 0 oraz F2(y) = 0 dla pozostalych y. Zmienne nie S'l; niezalesne.

{ 0 dla x < 0 lub y < 0

y(2 - y) dla x > 1 i 0 :::; y :::; 1

56. a) F(x, y) = x3 dla 0:::; x :::; 1 i y > 1

x3(2 - y) dla 0 :::; x :::; 1 i 0 :::; y:::; 1

1 dla pozostalych x, y

{o dlax<-lluby<-l

(y + 1)(2y + 1)/6 dla x> 1 i-I:::; y :::; 1

b) F(x, y) = x(x + 1)/2 dla -1:::; x:::; 1 i y > 1

(y + 1)(2y + 1)(3x + 2y - 2) dla - 1 :::; x:::; 1 i-I:::; y :::; 1

1 dla pozostalych x, y

{ 0 dla x < 0 lub y < 0

c) F(x, y) = 1- e-Y dla x> 2 i y > 0

x2 (1 - e-Y) /4 dla 0 :::; x :::; 2 i y > 0

57. a) Wyznaczamy gestosc prawdopodobieristwa f(x, y) = :::u (x, y) = 6xy(2 - x - y) dla 0:::; x :::; 1 i 0 :::; y :::; 1 oraz fz(x, y) = 0 dla pozostalych (x, V). Stad wyznaczarny rozklady brzegowe hex) = 101 f(x, y)dy = x(4 - 3x), hey) = 101 f(x, y)dx = y(4 - 3y) oraz rozklady warunkowe f(xly) = I; Ij:c:}du = x2 2y(t:.:~), dla 0:::; x :::; 1 oraz f(xly) = 0 dla poz. x, f(ylx) = I~ ~(,(:ldv = y2~t;.:~) dla 0 :::; y :::; loraz f(Ylx) = 0 dla poz. y. b) f(x,y) = 4xy/9 dla 0:::; x:::; 1 i 0:::; y:::; 3, oraz hex) = 2x dla 0 :::; x :::; 1, hey) = 2y/9 dla 0 :::; x :::; 3. f(xly) = x2 dla dla 0 :::; x :::; 1 oraz f(xly) = 0 dla poz. x, f(ylx) = y2/9 dla 0 :::; y:::; 3 oraz f(ylx) = 0 dla poz. y.

58. Rozklad prawdopodobieristwa: Pi,j = 0,2 dla i = j oraz Pi,j = 0 dla i 1= i.

a) Wobec tego momenty zwykle wyznaczamy z zaleznosci mk,l = 2::~ XfYi, i tak mamy: m1,0 = 5,5, mO,l = 2,946, m2,0 = 45,95, mO,2 = 14,086, ml,l = 25,38.

b) Momenty centralne: P,l,l = ml,l-ml,OmO,l = 9,177, P,2,O = m2,0-(m1,o)2 = 15,7, 0"1 = y'ffi2,O = 3,962, P,0,2 = mO,2 - (mo,I)2 = 5,422, 0"2 = y'ffiD,2 = 2,325,

c) Wsp6lczynnik korelacji p = :,'~~ = 0,99.

d) Prosta regresji (patrz (1.10» y-2, 946 = 0, 584(x-5, 5), y-2, 946 = 0, 589(x-5, 5).

e) Erozje odpowiadajaca kolejnym nachyleniom wyznaczamy z r6wnania pierwszej prostej: Vex) = 2,946 + 0, 584(x - 5,5), y(2) = 0,9, y(6) = 3,26, y(10) = 5.58, nachylenia zas odpowiadajace kolejnym erozjorn z r6wnania drugiej prostej: xCV) = 1, 697y + 0,5, x(O, 5) = 1,348, x(5) = 8,98.

59. a) p = 0,8, b) y - 3,705 = 0, 857(x - 4,06), y - 3,705 = 1, 306(x - 4, 06).

60. a) Momenty zwykle wyznaczamy ze wzoru mk,l J J xkyl lex, y)dxdy, mO,l = m1,0 = 7/12, ml,l = 1/3, m2,O = mO,2 = 5/12, z odpowiednich wzor6w wyznaczamy P,1,1 = -1/144, P,2,O = p,0, 2 = 11/144, oraz p = 11/144. C) proste regresji II rodzaju: y - 7/12 = -(x - 7/12)/11 (zmiennej Y wzgledem X), y - 7/12 = -l1(x - 7/12) (zmiennej X wzgledem Y). d) Rozklady brzegowe: hex) = 1/2 + x dla x E (0,1), hex) = 0 dla poz. z , hey) = 1/2 + y dla y E (0,1), hey) = 0 dla poz. y.

e) Rozklady warunkowe wyznaczamy ze wzoru f(x/y) = )~(:l = 2m oraz fey/x) =

2m. Nastepnie liczyrny E(X/y) = I; X· 2mdx = ~22~3yY, E(Y/x) = ~2N:.

f) Linie regresji I rodzaju: y = E(Y/x) oraz x = E(X/y), czyli y = ~ 22-;'3:, x = ~ 22~3r

61. a) 'P(t) = 2::keitXkpk = eitOq+ eitlp = 1 +peit, b) 'P(t) = ~(eit + 1)3, c) 'P(t) = l-\it'

62. a) b) Funkcje nie spelniaja warunku <pc -t) = <pet). c) Funkcja nie spelnia warunku 1'P(t)1 :::; 1.

63. a) <pet) = l~it' <p'(t) = (I_iit)" <p"(t) = ('1=i;)3' E(X) = -i<p'(O) = 1, VeX) = [<p"(o)F + 'P"(O) = 3, b) <pet) = 1~t2' E(X) = 0, VeX) = 3.

64.

Numer Przedzial Srodek Licznosc Cz«stosc Cz«stosc
klasy klasowy klasy klasy klasy skumulowana
Xi ni n;jn 2:::-1 xt/n
1 0,975 - 1,025 1,00 6 3/25 3/25
2 1,025 - 1,075 1,05 11 11/50 17/50
3 1,075 - 1,125 1,10 10 1/5 25/50
4 1,125 - 1,175 1,15 9 9/50 17/25
5 1,175 - 1,225 1,20 7 7/50 43/50
6 2,225 - 2,275 1,25 7 7/50 1 X = 1 121 0"2 = 0,0063, 0" = 0,0794.

65.

, ,
Numer Przedzial Srodek Licznosc Cz«stosc Cz«stosc
klasy klasowy klasy klasy klasy skumulowana
Xi ni n;/n 2:::-1 xl/n
1 20 - 24 22 15 1/10 1/10
2 24 - 28 26 20 2/15 7/30
3 28 - 32 30 50 1/3 17/30
4 32 - 36 34 40 4/15 5/6
5 36 - 40 38 25 1/6 1 x = 26,53, 0"2 = 5,582, 0" = 2,362.

66. Funkcja wiarygodnosci: L = I17=lP(1- p)X.-1 oraz In L = n Inp"!-n(X A-I) ~n(lp), gdzie X = * 2::7 Xi. Roswiazujac r6wnanie (in L)~ = 0, otrzymujerny P = x'

67. E(u) = E (k 2::71Xi - p'1) = k 2::7 E(IXi - p'1) = 0'$ I~: Ix - p,le- (";:l dx = 2kn j+""(x-p,)e- (";;.l dx = ~ J;+oo e-Z/2dz = ~. (Podstawienie «x-p)/u =

0'5 I-' v2 .. a v 2 ..

z). Z rownosci E(u) = 0" otrzymamy k = ~J7r12.

130

____________________ 4. Odpowiedzi i rozwiazania

4. Odpowiedzi i rozwiazania -------------------

131

68. Wiemy, ze f(x) = te-x/>,. Funkcja wiarygodnosci: rrrte-xi/\ InL = tnXInA. R6wnanie wiarygodnosci: (lnL)~ = 0, :~ - * = 0, j = nX = l:~ Xi.

69. Wiadomo, ze f(x) = tc-x/\ E(X) = ~, E(X2) = 2A2. Wyznaczamy E(j2) = 2~ l:~ E(Xl) = 2~ l:~ 2A = A2. Estymator jest nieobciazony.

70. Wyznaczamy x = 5,11, s2 = 3,02. Przedzial ufnosci dla wartosci sredniej: W = (x- Tn;x+ Tn), gdzie <1>(t) = 1 + et/2 = 0,975, t = 1,96, W = (4,37;5,86).

Przedzial ufnosci dla wariancji: W = (ns2, nS2), gdzie X2 oraz Xl odczytujemy z

%'2 Xl

tablic kwantyli rozkladu X2 dla 1 + et/2 i 1 - et/2 przy n - 1 stopniach swobody, w tym przypadku X2 = 35,479, Xl = 10,283, W = (1,87;6,461).

71. Wyznaczamy x = 4,12, S2 = 0,059. Przedzial ufnosci dla wartosci sredniej i wariancji patrz poprzednie zadanie: t = 1,64, W = (4,02; 4,22). X2 = 23,685, Xl = 6,571, W = (0,037; 0, 135).

72. Patrz poprzednie zadania, t = 1,56, W = (1,561.10-19,1,587.10-19).

73. Patrz punkt Vll? w Tabl. 5.8, nl = 8, Xl = 5,875,0-2 = 0,192, nl = 6, X2 = 4,88, 0-2 = 0,018, Uobl = 6,055, W = (1,28; +00), Uobl E W. Hipoteze odrzucamy na rzecz hipotezy 0 zrnniejszeniu zuzycia paliwa.

74. Wyznaczamy x = 22, S2 = 7,5, s = 2,74, tobl = x-.e0.;n=l = -1,93.

a) W = (-00;-2,365) U (2,365;+00), tobl ¢ W. Nie rna podstaw do odrzucenia hipotezy. b) W = (-00; -1,895), tobl E W. Hipoteze 0 sredniej ternperaturze r6wnej 24 odrzucamy na rzecz hipotezy, ze srednia temperatura jest mniejsza od 24.

75. Patrz punkt IYo w Tabl, 5.8. n = 10, x = 12,02, S2 = 0, 0106, X~bl = 3,029, a) W = (0; 2, 700)U (19, 023), X~bl ¢ W nie rna podstaw do odrzucenia hipotezy na rzecz hipotezy 0-2 :j:. 0,035, b) W = (0; 3, 325), X~bl E W. Hipoteze odrzucarny na rzecz hipotezy 0-2 < 0,035, c) W = (16,819; +00), nie rna podstaw do odrzucenia hipotezy.

80. a) Patrz punkt YIJO w Tab!. 5.8, Uobl = 7,21, W = (-00,-2,58) U (2,58,+00), Uobl E W. Hipoteze odrzucamy. b) Patrz punkt YIo w Tab!. 5.8, Uobl = 10,1, W = (2,33; +00), Uobl E W. Hipoteze odrzucamy na rzecz hipotezy J{ : o-? > 0,2. c) Patrz punkt 111° w Tab!. 5.8, Uobl = 0,79, W = (2,33; +00) Uobl ¢ W. Nie rna podstaw do odrzucenia hipotezy. d) Podobnie jak we), Uobl = -4,47, W = (-00;-2,33),

Uobl E W. Hipoteze odrzucamy.

76. Wyznaczamy z pr6by x = 0,238, S = 0,0125. a) Patrz punkt IIo w Tabl, 5.8 isu = x-.e0.;n=l = -2,882, W = (-00; -2, 821), tobl E W, hipoteze odrzucamy na rzecz hipotezy alternatywnej. b) Patrz punkt 1° w Tabl. 5.8 Uobl = x-/o Vn = -2,52, W = (-00, -2, 33), Uobl E W, hipoteze odrzucamy na rzecz hipotezy alternatywnej.

77. Patrz punkt yo w Tabl, 5.8, Uohl = ~ - v2n - 3 = 3,325, W = (1,28,00),

V u~

Uohl E W, hipoteze odrzucamy.

78. Wyznaczamy x = 7,014, 8 = 0,273, s" = 2,75. Metoda I: Korzystamy z przedzialu ufnosci dla n 2: 50 (punkt yo w Tab!. 5.8) i otrzymujerny Uobl = 24,952, W = (1,28,00), Uobl E W, hipoteze odrzucamy.

Metoda II: Korzystamy z przedzialu ufnosci dla n 2: 100 (punkt YJO w Tabl, 5.8) i otrzymujerny Uobl = 0,935, W = (1,28,00), Uohl ¢ W, nie rna podstaw do odrzucenia hipotezy.

79. Xl = 1020, X2 = 773, Sl = 228, 82 = 171. a) Korzystamy z przedzialu ufnosci, punkt YIIO w Tab!. 5.8, Uobl = 2,1224, W = (2,88; 00), Usu ¢ W. Nie rna podstaw do odrzucenia hipotezy. b) Korzystamy z przedzialu ufnosci, punkt YIo w Tabl. 5.8, Uobl = 2,1007, W = (2,88;00), Uobl ¢ W. Nie rnapodstaw do odrzucenia hipotezy.

Rozdzia15

Tablice statystyczne

Tablica 5.1 Wartosci funkcji wykladniczej f(x) = e-x

x 0 I 2 3 4 5 6 7 8 9
0.00 1,0000 0.9990 0,9980 0,9970 0,9960 0,9950 0,9940 0.9930 0,9920 0,9910
0.0 1,0000 0,9900 0.980~ 0,9704 0.9608 0,9512 0,9418 0,9324 0,9231 0,9139
0.1 0,9048 ,8958 .8869 .8781 ,8694 .8607 .8521 ,8437 ,8353 ,8270
0,2 ,8187 .8106 .8025 ,7945 .7866 ,7788 .7711 ,7634 ,7558 ,7483
0.3 ,7408 .7334 ,7261 .7189 .7118 .7047 ,6977 ,6907 ,6839 ,6771
0.4 ,6703 ,6637 .6570 .6505 ,6440 ,6376 ,6313 ,6250 ,6188 ,6126
0,5 0.6065 0.6005 0,5945 0,5886 0,5827 0,5769 0,5712 0,5655 0.5599 0,5543
0.6 ,5488 ,5434 ,5379 .5326 ,5273 .5220 ,5169 ,5117 ,5066 ,5016
0,7 ,4966 ,4916 ,4868 ,4819 ,4771 ,4724 ,4677 ,4630 ,4584 ,4538
0,8 ,4493 ,4449 ,4404 ,4360 ,4317 ,4274 .4232 .4190 .4148 ,4107
0.9 .4066 .4025 ,3985 ,3946 ,3906 ,3867 ,3829 .3791 ,3753 ,3716
I, 0.3679 0.3329 0.3012 0,2725 0,2466 0,2231 0,2019 0,1827 0,1653 0,1496
~ .1353 .1225 .)J08 ,1003 ,0907 ,0821 ,0743 ,0672 .0608 ,0550
3, ,0498 .0450 .0408 ,0369 ,0334 .0302 ,0273 ,0247 ,0224 ,0202
4, .0183 .0166 .0150 ,0136 .ous .0111 moo ,0091 ,0082 ,0074
5. ,0067 ,0061 .0055 .0050 ,0045 ,0041 .0037 ,0034 ,0030 ,0027
6, 0,0025 0.0022 0,0020 0,0018 0.0017 0,0015 0.0014 0,0012 0,0011 0,0010
7, ,0009 .0008 ,0007 ,0007 ,0006 ,0006 ,0005 ,0005 ,0004 ,0004
8. ,0003 ,0003 ,0003 ,0002 ,0002 ,0002 ,0002 ,0002 ,0002 ,0001
9, ,0001 ,0001 ,0001 ,0001 ,0001 ,0001 ,0001 ,0001 ,0001 ,0000 133

_____________ ------ 5. Tablice statystyczne

134 Tab lie a 5.2 Niekt6re rozklady prawdopodobienstwa

Nazwa rozkladu G~stose alba Parametry EX D2X
funkcja prawdopo dobieristwa rozkladu
1 dla a S x S b a,b E R a+b (b - a)2
r6wnomierny b-a -b- -1-2-
wykladniczy 1 _xl>' x>O x > 0 x ).2
Xe ,
xp-Ie-xl>' x>O I p,). > 0 ).p ).2p
gamma ),Pf(p) ,
P
xp-I (1 - x )q-I 0<x<12 p,q > 0 .z., (p + q)2 .
beta B(p, q) , p+q q
(p+q+1)
1 (x - 1L)2) IL E R, IL 0'2
norrnalny O'..;z:;exp - 20'2 ' x E R 0'>0
1 (IX -ILl) ).>0 2).2
Laplace'a - exp --- ,x E R IL E R, IL
2A ).
X2 1 v12-1 -x/2 > 0 2v
z v stopniami x e , x vE N v
swobody 2v/2f (tv)
t Studenta v
z v stopniami r{~l x E R vE N 0 v-2
swobody r( t )r( ~ )fo(l+ ~) (~+lj7" dlav>2
zero- jedynkowy P(X = 1) =p, p E (0,1) P p(l - p)
P(X = 0) = 1- P
(~)pk(l_pr-k, k=O,l, ... ,n nEN np np(l - p)
dwumianowy p E (0,1)
).k ).>0 x x
Poisson a k!' k=0,1,2, ...
pE(O,l) 1 1 p
geornetryczny p(l - p)k-I, k = 1,2, ... - IT
p I I'(p) = fooo xp-Ie-xdx dla p > 0; dla PI = n E N, fen) = (n - I)!.

I -1 f(p)r(q)

2 B(p,q)=fo xp-1(1-x)q dx, p,q>O, B(p,q)= f(p+q)'

5. Tablice statystyczne --------------- 135

Tabliea 5.3 Rozklad Poissona

Wartosci P(k; >.) funkcji prawdopodobieristwa rozkladu Poissona.

Dla ustalonego >. odczytujemy prawdopodobienstwo Pic = ~~ e->' uzyskania k sukcesow w rozkladzie Poissona. 1

I k A
0,001 0,002 0,003 0,004 0.005 0,006 0,007
0 0,9990 0,9980 0,9970 0,9960 0,9950 0,9940 0,9930
1 ,0'999 ,0'200 ,0'299 ,0'398 ,0'498 ,0'596 ,0'695
2 ,0'1 ,0'200 ,0'449 ,0'797 ,0·124 ,0·179 ,0·243
k A
0,008 0,009 0,010 0,020 0,030 0,040 0,050
0 0,9920 0,9910 0,9900 0,9802 0,9704 0,9608 0,9512
1 ,0'794 ,0'892 ,0'990 ,0196 ,0291 ,0384 ,0476
2 ,0·317 ,04401 ,04495 ,0'196 ,0'437 ,0'769 ,0'119
3 - - - ,0'131 ,0'437 ,04102 ,04198
k A
0,06 0,07 0,08 0,09 0,10 0,20 0,30
0 0,9418 0,9324 0,9231 0,9139 0,9048 0,8187 0,7408
1 ,0565 ,0653 ,0738 ,0823 ,0905 ,1637 ,2222
2 ,0'170 ,0'228 ,0'295 ,0'370 ,0'452 ,0164 ,0333
3 ,04339 ,04533 ,04788 ;0'111 ,0'151 ,0'109 ,02333
4 O,'} ,0"93 ,0'158 ,0'250 ,0'377 ,04546 ,0'250
5 - - - - - ,0'218 ,0·150
k A
0,4 0,5 0,6 0,7 0,8 0,9 1,0
0 0,6703 0,6065 0,5488 0,4966 0,4493 0,4066 0,3679
1 ,2681 ,3033 ,3293 ,3476 ,3595 ,3659 ,3679
2 ,0536 ,0758 ,0988 ,1217 ,1438 ,1647 ,1839
3 ,02715 ,0126 ,0198 ,0284 ,0383 ,0494 ,0613
4 ,0'715 ,02158 ,0'296 ,02497 ,0'767 ,0111 ,0153
5 ,0·572 ,0'158; ,0'356 ,0'696 ,0'123 ,02200 ,0'307
6 ,0'381 ,04132 ,04356 ,04811 ,0'164 ,0'300 ,0'511
7 - ,0'1 ,0'305 ,0'811 ,04187 ,04386 ,04730
8 - - - ,0"1 ,0'187 ,0'434 ,0'912
9 - - - - - - ,06101 lSymbol Ok234 oznacza., ze 0 powinno bye powt6rzone k razy.

136

____ ---------------- 5. Tablice statystyczne

5. Tablice statystyczne _

137

Rozklad Poisson a cd.

Rozklad Poissona cd.

k I A
1.1 t 1.2 ; 1.3 ! 1.4 1.5 I 1.6 t 1,7 1.8 t 1,9 t 2,0
0 '0,3328710.3011940,2725320.2465970,223130 0,2018970,1826840,1652990,1495690,135335
1 ,366158 ,361433 ,354291· ,345236 ,334695· ,323034 ,310562 ,2H538, ,284180 ,270671
2 ,201387 ,216860 ,230289 ,241665 ,251021 ,258428 ,263978 ,267784 ,269971 ,270671
3 .073842 ,086744 ,099792 ,112777 ,125510 ,137828 ,149587 ,160671 ,170982 ' ,180-147
4 ,020307 ,026023 ,032432 ,039472 ,047067 ,055131 ,063575 ,072302 ,081216 I ,090224
5 ,004467 ,006246 ,008432 ,011052 ,014120 .017642 ,021615 ,026029 ,030862 ,036089
6 ,000819 ,001249 ,001827 ,002579 ,003530 ,004705 ,006124 ,007809 ,009773 I ,012030
7 ,000129 .000214 ,000339 ,000516 ,000756 ,001075 ,001487 ,002008 ,002653 ,003437
8 ,000018 ,000032 ,000055 ,000090 ,000142 ,000215 ,000316 ,000452 ,000630 ,000859
9 ,000002 ,000004 ,000008 ,000014 ,000024 ,000038 ,000060 ,000090 ,000133 ,000191
10 - ,000001 ,000001 ,000001 ,000004 ,000006 ,000010 ,000016 ,000025 ,000038
II - - - - - ,000001 ,000002 ,000003 ,000004 ,000007
12 - - - - - - - - ,000001 ,000001
I A.
k 2.1 I 2.2 2,3 2,4 2,5 2,6 i 2,7 i I I 3,0
1 1 i I 2,8 2,9
0 0,122456 0.110803 0,100259 0.090718 0,082085 0,074274 0,067206 0,060810 0,055023 0,049787
1 ,257159 ,243767 ,230595 ,217723 ,:!OS212 : ,193111 ,181455 ,170268 ,159567 ,149361
2 ,270016 ,268144 ,265185 ,261268 ,256516 ' ,251045 ,244964 ,238375 ,231373 ,224042
3 ,189012 ,196639 ,203308 ,209014 ,213763 ,217572 ,220468 ,222484 ,223660 ,224042
4 ,099231 ,108151 ,116902 ,125409 ,133602 ,141422 ,148816 ,155739 ,162154 ,1680311
5 ,0·;1677 ,047587 .053775 ,060196 ,066801 ,073539 ,080360 ,087214 ,0)4049 ,100319
6 ,014587 .017448 ,020614 ,024078 ,027834 ,031867 ,036162 ,O~0700 ,045457 ,050+09
7 ,004376 ,005484 ,006773 ,008255 ,009941 ,011836 ,013948 ,016280 ,018832 ,021604
8 ,001149 ,001508 ,001947 ,002477 ,003106 ,003847 ,004108 ,005698 ,006827 ,008102
9 ,000268 ,000369 ,000498 ,000660 ,000863 ,001111 ,001412 ,(0)773 ,002200 ,002701
10 ,000056 ,000081 ,000114 ,000158 ,000216 ,000289 ,000381 ,000496 ,000638 ,0003101
II ,000011 ,000016 ,000024 ,000035 ,000049 ,000068 ,000094 ,000126 ,000168 ,000221 I
12 ,000002 ,000003 ,000.05 ,000007 ,000010 ,000015 ,000021 ,000029 ,OOOOH ,000055
13 - ,000001 ,000001 ,000001 ,000002 ,000003 ,000004 ,000006 ,00000:1 ,000013
14 - - - - - ,000001 ,000001 ,000001 ,OOOOO~ ,000003
15 - - . - - - - - - - ,000001 k A
3,1 3,2 3,3 3,4 3,5 3,6 3,7 3,8 3,9 4,0
0 0,045049 0,040762 0,036883 10,033373 0,030197 0,027324 0,024724 0,022371 10,020242 10,018316
1 ,139653 ,130439 ,121714 ,113469 ,105691 ,098365 ,091477 ,085009 ,078943 ,073263
2 ,216461 ,208702 ,200829 ,192898 ,184959 ,177058 ,169233 ,161517 ,153940 ,146525
3 ,223671 ,222616 ,220912 ,218617 ,215785 ,212469 ,208720 ,204588 ,200122 ,195367
4 ,173350 ,178093 ,182252 ,185825 ,188812 ,191222 ,193066 ,194359 ,195119 ,195367
5 ,107477 ,113979 ,120286 ,126361 ,132169 ,137680 ,142869 ,147713 ,152193 ,156293
6 ,055530 ,060789 ,066158 ,071604 ,077098 ,082608 ,088102 0,93551 0,98925 ,104196
7 ,024592 ,027789 ,031189 ,034779 ,038549 ,042484 ,046568 ,050785 ,055115 ,059540
8 ,009529 ,011116 ,012865 ,014781 ,016865 ,019118 ,021538 ,024123 ,026869 ,029770
9 ,003282 ,003952 ,004717 ,005584 ,006559 ,007647 ,008854 ,010185 ,011643 ,013231
10 ,001018 ,001265 ,001557 ,001899 ,002296 ,002753 ,003276 ,003870 ,004541 ,005292
11 ,000287 ,000368 ,000467 ,000587 ,000730 ,000901 ,001102 ,001337 ,001610 ,001925
12 ,000074 ,000098 ,000128 ,000166 ,000213 ,000270 ,000340 ,000423 ,000523 ,000642
13 ,000018 ,000024 ,000033 ,000043 ,000057 ,000075 ,000097 ,000124 ,000157 ,000197
14 ,000004 ,000006 ,000008 ,000011 ,000014 ,000019 ,000026 ,000034 ,000044 ,000056
15 ,000001 ,000001 ,000002 ,000002 ,000003 ,000005 ,000006 ,000009 ,000011 ,000015
16 - - - ,000001 ,000001 ,000001 ,000001 ,000002 ,000003 ,000004
17 - - - - - - - - ,000001 ,000001
k ),
4,1 4,2 4,3 4,4 4,5 4,6 4,7 4,8 4,9 . 5,0
0 0,016573 0,014996 0,013569 0,012277 0,011109 0,010052 0,009095 0,008230 0,007447 0,006738
1 ,067948 ,062981 ,058345 ,054020 ,049990 ,046238 ,042748 ,039503 ,036488 ,033690
2 ,139293 ,132261 ,125441 ,118845 ,112479 ,106348 ,100457 ,094807 ,089396 ,084224
3 ,190368 ,185165 ,179799 ,174305 ,168718 ,163068 ,157383 ,151691 ,146014 ,140374
4 ,195127 ,194424 ,193284 ,191736 ,189808 ,187528 ,184925 ,182029 ,178867 ,175467
S ,160004 ,163316 ,166224 ,168728 ,170827 ,172525 ,173830 ,174748 ,175290 ,175467
6 ,109336 ,114321 ,11?127 ,123734 ,128120 ,132270 ,136167 ,139798 ,143153 ,146223
7 ,064040 ,068593 ,073178 ,077775 ,082363 ,086920 ,091426 ,095862 ,100207 ,104445
8 ,032820 ,036011 ,039333 ,042776 ,046329 ,049979 ,053713 ,057517 ,061377 ,065278
9 ,014951 ,016805 ,018793 ,020913 ,023165 ,025545 ,028050 ,030676 ,033416 ,036266
10 ;006130 ,007058 ,008081 ,009202 ,010424 ,011751 ,013184 ,014724 ,016374 ,018133
11 ,002285 ,002695 ,003159 ,003681 ,004264 ,004914 ,005633 ,006425 ,007294 ,008242
12 ,000781 ,000943 ,001132 ,001350 ,001599 ,001884 ,002206 ,002570 ,002978 ,003434
13 ,000246 ,000305 ,000374 ,000457 ,000554 ,000667 ,000798 ,000949 ,001123 ,001321
14 ,000072 ,000091 ,000115 ,000144 ,000178 ,000219 ,000268 ,000325 ,000393 ,000472
15 ,000020 ,000026 ,000033 ,000042 ,000053 ,000067 ,000084 ,000104 ,000128 ,000157
16 ,000005 ,000007 ,000009 ,000012 ,000015 ,000019 ,000025 ,000031 ,000039 ,000049
17 ,000001 ,000002 ,000002 ,000003 ,000004 ,000005 ,000007 ,000009 ,000011 ,000014
18 - - ,000001 ,000001 ,000001 ,000001 ,000002 ,000002 ,000003 ,000004
19 - - - - - - - ,000001 ,000001 ,000001 138 Tabliea 5.4 Rozklad normalny

---------------- 5. Tablice statystyczne

5. Tablice statystyczne _

139

Dystrybuanta <p(x) = ~[Xoo exp (_~U2) du rozkladu normalnego N(O,l).

Dla ustalonego x (pierwsza kolumna - wartosc z przybliieniem 0,01, pierwszy wiersz - setne czesci x) z tabeli odczytujemy a = Pt N < x). Do korzystaniu z tablicy przydatny jest wzor <p( -x) + <p( x) = 1.

Tab lie a 5.5 Kwantyle rozkladu normalnego

Dla ustalonego p z tablicy odczytujemy wartosc u(p), taka ie Pt N < u) = P lub rownowaznie Pi N > u) = 1 - p.

u 0,00 0,01 0,02 0,Q3 0,04 0,05 0,06 0.07 0,08 0.09
0.0 0.5000 0,5040 0,5080 0,5120 0.5160 0,5199 0.5239 0.5279 0,5319 0,5359
0.1 ,5398 ,5438 ,5478 ,5517 ,5557 ,5596 .5636 .5675 .5714 .5753
0,2 ,5793 ,5832 ,5871 ,5910 ,5948 ,5987 .6026 ,6064 ,6103 ,6141
0,3 ,6179 ,6217 ,6255 ,6293 ,6331 ,6368 ,6406 .6443 ,6480 ,6517
0,4 .6554 ,6591 ,6628 ,6664 ,6700 ,6736 ,6772 .6808 ,6844 ,6879
0,5 .6915 ,6950 ,6985 ,7019 ,7054 ,7088 ,7123 ,7157 ,7190 7224
0,6 ,7257 ,7290 ,7324 .7357 ,7389 ,7422 ,7454 ,7486 ,7517 .7549
0,7 ,7580 ,7611 ,7642 ,7673 ,7704 ,7734 ,7764 ,7794 ,7823 ,7852
0.8 ,7881 ,7910 ,7939 .7967 ,7995 ,8023 ,8051 ,8078 ,8106 .8133
0,9 ,8159 ,8186 ,8212 ,8238 ,8264 ,8289 ,8340 ,8340 .8365 .8389
1,0 0,8413 0,8438 0,8461 0,8485 0,8508 0,8531 0,8554 0.8577 0.8599 0,8621
1,1 ,8643 ,8665 ,8686 ,8708 ,8729 ,8749 ,8770 ,8790 ,8810 .8830
1.2 ,8849 .8869 ,8888 ,8907 ,8925 ,8944 ,8962 ,8980 ,8997 .9015
1,3 ,9032 ,9049 .9066 ,9082 ,9099 ,9115 .9131 .9147 .9162 .9177
1,4 ,9192 ,9207 ,9222 ,9236 ,9251 ,9265 ,9279 .9292 .9306 .9319
1,5 ,9332 ,9345 ,9357 ,9370 ,9382 ,9394 ,9406 .9418 .9429 ,9441
1,6 ,9452 .9463 ,9474 .9484 .9495 ,9505 .9515 .9525 .9535 .9545
1,7 ,9554 ,9564 ,9573 ,9582 ,9591 ,9599 ,9608 .9616 ,9625 .9633
1,8 ,9641 ,9649 ,9656 ,9664 ,9671 .9678 ,9686 ,9693 .9699 .9706
1,9 ,9713 ,9719 ,9726 ,9732 ,9738 ,9744 .9750 .9756 .9761 ,9767
2,0 0.9772 0,9779 0,9783 0.9788 0,9793 0.9798 0,9803 0.9808 0.9812 0.9817
2,1 ,9821 ,9826 ,9830 ,9834 ,9838 ,9842 ,9846 ,9850 .9854 ,9857
2,2 ,9861 ,9864 ,9868 ,9871 ,9875 .9878 .9881 .9884 ,9887 ,9890
2.3 ,9893 ,9896 ,9898 ,9901 ,9904 ,9906 .9909 .9911 ,9913 ,9916
2,4 ,9918 ,9920 ,9922 ,9925 ,9927 ,9929 ,9931 ,9932 ,9934 .9936
2.5 .9938 .9940 ,9941 ,9943 ,9945 ,9946 ,9948 ,9949 .9951 .9952
2.6 ,9953 ,9955 ,9956 ,9957 ,9959 ,9960 ,9961 ,9962 ,9963 .9964
2,7 ,9965 ,9966 .9967 ,9968 .9969 ,9970 ,9971 .9972 ,9973 ,9974
2.8 .9974 ,9975 ,9976 ,9977 ,9977 ,9978 ,9979 ,9979 ,9980 ,9981
2,9 .9981 .9982 ,9982 ,9983 ,9984 ,9984 .9985 ,9985 ,9986 .9986 p 0.90 0.95 0.975 0,99 0.995
u (P) 1,28 1.64 1,96 2,33 2.58 Tabliea 5.6 Kwantyle rozkladu t Studenta

Kwantyle t(p, n) rzedu p rozkladu t Studenta 0 n stopniach swobody.

Przy ustalonym pin tablica podaje wartosc tp, taka ze P(X < tp) = p, gdzie X jest zmienna losowa rozkladu t Student a 0 n stopniach swobody, to znaczy

1 r. ( t2)-~

foB (1/2, n/2) -00 1 + -; = v.

p
n 0,90
0.95 0,975 0.99 0,995
1 3,078 6,314 12,706 31,821 63,657
2 1.886 2,920 4,303 6,965 9.925
3 ,638 ,353 3,182 4,541 5,841
4 .533 ,132 2,776 3,747 4,604
5 ,476 ,015 ,571 ,365 ,032
6 1,440 1,943 2,447 3,143 3,707
7 ,415 ,895 ,365 2,998 ,499
8 ,397 ,859 ,306 ,897 ,355
9 ,383 ,833 ,262 ,821 ,250
10 ,372 ,812 ,228 ,764 ,169
11 1,363 1,795 2,201 2,718 3,106
12 ,356 ,782 ,179 ,681 ,054
13 ,350 ,771 ,160 ,650 ,012
14 ,345 ,761 ,145 ,624 2,977
15 ,341 ,753 ,131 ,602 ,947
16 1,337 1,746 2,120 2,583 2,921
17 ,333 ,740 ,110 ,567 ,898
18 ,330 ,734 ,101 ,552 ,878
19 ,328 ,729 ,093 ,539 ,861
20 ,325 ,725 ,086 ,528 ,845 140

____________________ 5. Tablice statystyczne

5. Tablice statystyczne -- _

141

K wantyle rozkladu t Student a cd.

Tablica 5.7 Kwantyle rozkladu X2

p
n 0,90 0,95 0,975 0,99 0,995
21 1,323 1,721 2,080 2,518 2,831
22 ,321 ,717 ,074 ,508 ,819
23 ,319 ,714 ,069 ,500 ,807
24 ,318 ,711 ,064 ,492 ,797
25 ,316 ,708 ,060 ,485 ,7~7
26 1,315 1,706 2,055 2,479 2,779
27 ,314 ,703 ,052 ,473 ,771
28 ,312 ,701 ,048 ,467 ,763
29 ,311 ,699 ,045 ,462 ,756
30 ,310 ,697 ,042 ,457 ,750
31 1,309 1,695 2,039 2,453 2,744
32 ,309 ,694 ,037 ,449 ,738
33 ,308 ,692 ,034 ,445 ,733
34 ,307 ,691 ,032 ,441 ,728
35 ,306 ,690 ,030 ,438 ,724
36 1,305 1.688 2,028 2.434 2,720
37 ,305 ,687 ,025 ,431 ,715
38 ,304 ,686 ,024 ,429 ,712
39 ,304 ,685 ,023 ,425 ,708
40 ,303 ,684 ,021 ,423 ,704
41 1.303 1.683 2,019 2,421 2,701
42 ,31)2 ,682 ,018 .418 ,698
43 ,302 ,681 ,017 ,416 ,695
44 ,301 ,680 ,015 ,414 ,692
45 ,301 ,679 ,014 ,412 ,690
46 1.300 1,679 2,013 2,410 2,687
47 ,300 /;78 ,012 ,408 ,685
48 ,299 ,67: ,011 ,407 .682
49 ,299 ,677 ,010 ,405 ,680
50 ,299 ,676 ,009 .403 ,678
55 1.297 1,673 2,004 2,396 2,668
60 ,295 ,671 ,000 ,390 ,660
65 ,295 ,669 1.997 ,385 ,654
70 ,294 ,667 ,994 ,381 648
75 ,293 ,665 ,992 ,377 ,643
80 1.292 1,664 1,990 2,374 2,639
90 ,291 ,662 .987 .369 632
100 .290 ,660 .984 ,364 ,626
120 .289 .658 .980 ,358 .617
150 ,287 ,655 ,976 ,351 ,609
200 1,286 1,653 1,972 2,345 2,601
300 ,284 ,650 ,968 ,339 ,592
500 ,283 ,648 ,965 ,334 ,586
1000 ,282 ,646 ,962 ,330 ,581
oc ,282 .645 ,960 ,326 ,576 Kwantyle x2(p,n) rzedu p rozkladu X2 0 n stopniach swobody.

Przy ustalonym pin tablica podaje wartosci xP' takie ie P(X2 < xp) == p, to znaczy

1 jXP

k/2-1 -u/2

2n/2f(1/2, n) -00 x e du ,

p
n
0.005 om 0,025 0,05 0,95 0,975 0,99 0,995
I - - 0,001 0,004 3,841 5,024 6,635 7,879
2 0,010 0,020 0,051 0,103 5,991 7,378 9,210 10,597
3 0,072 0,115 0,216 0,352 7,815 9,348 11,345 12,838
4 0,207 0,297 0,484 0,711 9,488 11,143 13,277 14,860
5 0,412 0,554 0,831 1,145 11,071 12,833 15,086 16,750
6 0,676 0,872 1,237 1,635 12,592 14,449 16,812 18,548
7 0,989 1,239 1,690 2,167 14,067 16,013 18,475 20,278
8 1,344 1,646 2,180 2,733 15,507 17,535 20,090 21,955
9 1,735 2,088 2,700 3,325 16,919 19,023 21,666 23,589
10 2,156 2,558 3,247 3,940 18,307 20,483 23,209 25,188
II 2,603 3,053 3,816 4,575 19,675 21,920 24,725 26,757
12 3,074 3,571 4,404 5,226 21,026 23,337 26,217 28,299
13 3,565 4,107 5.009 5,892 22,362 24,736 27,688 . 29,819
14 4,075 4,660 5,629 6,571 23,685 26,119 29,141 31,319
15 4,601 5,229 6.262 7,261 24,996 27,488 30,578 32,801
16 5,142 5,812 6,908 7,962 26,296 28,845 32,000 34,267
17 5,697 6,408 7,564 8,672 27,587 30,191 33,409 35,718
18 6,265 7,015 8,231 9,390 28,869 31,526 34,805 37,156
19 6,844 7,633 8,907 10.117 30,144 32,852 36,191 38,582
20 7,434 8,260 9,591 10,851 31,410 34,170 37,566 39,997
21 8,034 8,897 10,283 11,591 32,671 35,479 38,932 41,401
22 8,643 9,542 10,982 12,336 33,924 36,781 40,289 42,796
23 9,260 10,196 11,689 13,091 35,172 38,076 41,638 44,181
24 9,886 10,856 12,401 13,848 36,415 39,364 42,980 45,559
25 10,520 11,524 13,120 14,611 37,652 40,646 44,314 46,928
26 11,160 12,198 13,844 15,379 38,885 41,923 45,642 48,290
27 11,808 12,879 14,573 16,151 40,113 43,194 46,963 49,645
28 12,461 13,565 15,308 16,928 41,337 44,461 48,278 50,993
29 13,121 14,257 16,047 17,708 42,557 45,722 49,588 52,336
30 13,787 14,954 16,791 18.493 43,773 46,979 50,892 53,672 142

___________________ 5. Tablice statystyczne

5. Tablice statystyczne _

Tablica 5.8 Podstawowe przedzialy ufnosci

Kwantyle rozkladu X2 cd.

n p
0,005 O,QI 0,Q25 0,05 0,95 0,975 0,99 0,995
31 14,458 15,655 17,539 19,281 44,985 48,232 52,191 55,003
32 15,134 16,362 18,291 20,072 46,194 49,480 43,486 56,328
33 15.815 17,074 19,047 20,867 47,400 50,725 54,776 57,648
34 16,501 17,789 19,806 21,664 48,602 51,966 56,061 58,964
35 17,192 18,509 20,569 22,465 49.802 53.203 57,342 60.275
36 17,887 19.233 21,336 23,269 50.998 54,437 58.619 61,581
37 18,586 19,960 22,106 24,075 52,192 55,668 59,892 62.883
38 19,289 20,691 22,878 24,884 53,384 56,896 61,162 64,181
39 19,996 21,426 23,654 25,695 54,572 58,120 62,428 65,476
40 20,707 22,164 24,433 26,509 55,758 59,342 63,691 66,766
41 21,421 22,906 25,215 27.326 56,942 60,561 64,950 68.053
42 22,138 23,650 25,999 28,144 58,124 61,777 66,206 69,336
43 22,859 24,398 26,785 28,965 59,304 62,990 67,459 70,616
44 23,584 25,148 27,575 29.787 60,481 64,201 68,710 71.893
45 24,311 25,901 28,366 30,612 61,656 65,410 69.957 73,166
46 25,041 26,657 29,160 31,439 62,830 66,617 71.201 74,437
47 25,775 27,416 29,956 32.268 64,001 67,821 72,443 75,704
48 26,511 28,177 30,755 33.098 65.171 69.023 73.683 76,969
49 27,249 28,941 31,555 33,930 66,339 70,222 74.919 78.231
50 27.991 29,707 32,357 34,764 67,505 71.420 76.154 _~ .• 490 __ o ::I.

II ::I.

..

:;;

'" ..

b

;:

e I

o ...,

;:

'" ..

b_ :;;

- '" b ..

143

.... ..

. ..,

..

:;0

"'~

..

.~ AI

'" ;: b

AI

AI

8' !

-

;:

CI~ I

- - ~~

ii

88

I I

~~

;: .,'" I

'" -

..!:$ '" ~

I I

;:

~

. ..,

o -

~I"'o

;: b

000

::1.::1.::1.

A V '11-.

i.i.i. II II II ::1.::1.::1.

.. ..

o Q,

:E

o -

o ::I.

II ::I.

NONQNO

b b b

A Vii.

N_C't_N_

b b b

II II II

Nb Nb Nb

,",0

b

II

'"'

b

.... ..

. ..,

'" '" '"

:::.=..=..

A V '11-.

iii

... ::I.

II

i

~

'" '" c..

o

s

o

;;

o

;;

144 Podstawowe pojecia kombinatoryki

__ ___;_ 5. Tablice statystyczne

Permutacja zbioru n-elementowego nazywamy kazdy ciag, jaki moina utworzyc z element6w tego zbioru; permutacji takich jest

Pn = n!.

Literatura

Wariacja k-elementow~ z powt6rzeniami zbioru n-elementowego nazywamy kaidy ciag k-elementowy element6w ze zbioru n-elementowego, przy czym elementy te moga sie powtarzac: liczba takich wariacji wynosi

W: = nk.

Wariacja k-elementow~ bez powtorzeri zbioru n-elementowego, k ::;, nazywamy kazdy ciag k-elementowy element6w ze zbioru n-el~m~~toweg~, przy czym elementy te nie moga sie powtarzac; liczba takich wanacji wynosi

k n!

Wn = (n - k)!"

[1] Bobrowski D., Probabilistyka w zastosowaniach technicznych, Warszawa 1980.

k (n) n!

en = k = k!( n - k)!·

[2] Fisz M., Rachunek prawdopodobienstwa i statystyka matematyczna, Warszawa 1976.

[3] Gajek L., Kaluszka M.; Wnioskowanie statystyczne, Modele i metody, Warszawa 1993,1994.

[4] Greri J., Modele i zadania statystyki matematycznej, Warszawa 1980. [5] Krysicki W., Bartos J., Dyczka W., Kr6likowska K., Wasilewski M., Rachunek prawdopodobienstwa i statystyka matematyczna w zadaniach, cZEilsc I, Warszawa 1995.

[6] Krysicki W., Bartos J., Dyczka W., Kr6likowska K., Wasilewski M., Rachunek prawdopodobienstwa i statystyka matematyczna w zadaniach, CZEilsc II, Warszawa 1997.

[7] Plucinska A., Plucinski E., Elementy probabilistyki, Warszawa 1979. [8] Plucinska A., Plucinski E., Zadania z rachunku prawdopodobienstwa statystyki matematycznej, Warszawa 1978.

[9] Silvey S.D., Wnioskowanie statystyczne, Warszawa 1978.

[10] Smirnow N.W., Dunin-Borkowski I.W., Kurs rachunku prcuxiopodobiesi: stwa i statystyki matematycznej dla zastosowan technicznych, Warszawa 1969.

Jeieli k = n, pojecie wariacji bez powtorzeii pokrywa siEil z pojeciem permutacji.

Kombinacja k-elementow~ zbioru n-elementowego nazywamy kazdy k-elementowy podzbior zbioru n-elementowego. Podzbiorow tych jest

[11] Stepniak Cz., Cwiczenia ze statystyki matematycznej, Lublin 1989. [12] Zielinski R., Tablice statystyczne, Warszawa 1972.

[13] Zubrzycki S., Wyklady rachunku prawdopodobienstwa i statystyki matematycznej, Warszawa 1970.

145

Skorowidz ter rninow

alternatywa zdarzen 10

aksjomaty prawdopodobieristwa 13 aksjomatyczna definicja prawdo-

podobienstwa 12

badania czesciowe 67 - kompletne 67

blad pierwszego rodzaju 86, 93 - drugiego rodzaju 86, 93

czestosc klasy 68

- skumulowana 69

decyzja bledna 86 - poprawna 86 dlugosc klasy 68

dystrybuanta zmiennej losowej 23 - - - dwuwymiarowej 31

estymacja parametr6w 76 - przedzialowa 83

- punktowa 76

estymator asymptotycznie nieobcia -

sony 77 efektywny 78 nieobciazony 77 obciazony 77 zgodny 77

frakcja 83

funkcja beta 47, 134 charakterystyczna 50 gamma Eulera 46, 134 Laplace'a fjJ(x), 28, Laplace'a cI>( x), 28, 138 prawdopodobieristwa 27 wiarygodnosci 79

Gaussa rozklad 27 geometryczna definicja prawdopodobieristwa 12

gEGstosc rozkladu prawdopodobieristwa 27, 31

hipoteza alternatywna 85

nieparametryczna 85 - parametryczna 85

- statystyczna 85

histogram 68

iloczyn zdarzeri 10

klasa 68

klasyczna definicja prawdopodo-

bieristwa 11 kombinacja 144 kombinatoryka 144 korelacja 49 kowariancja 48 krzywe regresji 60 kwantyl91

liczba stopni swobody rozkladu X2 46 - - rozkladu t Studenta 94 licsnosc (Iiczebnosc) klasy 68

- pr6by 71

linie regresji 59, 61

metoda moment6w 82

- najwiekszej wiarygodnosci 79 miara informacji zawartej w pr6bce 79 - efektywnosci estymatora 79

moe testu 89

moment rzedu k 36, 47 momenty centralne 38, 48

- mieszane 48

zmiennej dwuwymiarowej 47, 47

147

148

____________________________________________ Skorowidztermin6w

Skorowidz termin6w

--------------------------------

149

nadzieja matematyezna 34

najbardziej prawdopodobna liezba sukcesow 19

nierownosc Czebyszewa 54

obciqzenie estymatora 77 oeena parametrow 76

odehylenie standardowe 42, 48, 70

permutaeja 144 populaeja generalna 67 - statystyezna 67 pora:ika 18

poziom istotnosci testu 86 -- ufnosci 72, 84 prawdopodobieristwo 13

calkowite 16 -- sukeesu 18, 83

-- warunkowe 14

prawo wielkieh liezb 54 prosta regresji 62 proba losowa 71 probka 67

-- losowa prosta 67

- statystyezna 67

przedzial klasowy 69 -- ufnosci 72, 73, 143

przestrzeri zdarzeri elementarnyeh 9

regresja typu pierwszego 59 - - drugiego 61

rozklad Bernoulliego 25, 134 beta 134

brzegowy 30

dwumienny 25, 134

X2 45, 134

gamma 134

Gaussa 27

geometryezny 134 jednostajny 41

liniowy 41

normalny 27, 42, 134

- standaryzowany 43 Poissona 26, 44, 134 r6wnomierny skokowy 41 - ciagly 41, 134

t Studenta 46, 134 warunkowy 30

wykladniezy 45, 134 zero-jedynkowy 24, 41, 134 zmiennej losowej 24

rozstep 68

r6wnania wiarygodnosci 80

wnioskowanie statystyezne 76 wspolczynnik korelaeji 49, 63 wzor Bayesa 17

Bernoulliego 18 -- Newtona 18

schemat Bernoulliego 18 e-cialo zdarzeri 12 sukees 18

suma zdarzeri 10 statystyka 76

- opisowa 67 szereg rozdzielczy 68

zasada najmniejszyeh kwadrat6w 102 zbi6r krytyczny 86

zdarzenia element arne 9

losowe 9 niemo:iliwe 10 niezale:ine 15

srednia generalna 72 - z pr6by 72 srodek klasy 68

test jednostajnie moeniejszy 87 - najmoeniejszy 87

- statystyezny 85

Twierdzenie Bayesa 17 Bernoulliego 56 eentralne 56

- Lapunowa 58

- Lindeberga-Levy'ego 57

Czebyszewa 55

integralne Moivre'a-Laplaee'a 21 lokalne Moivre'a-Laplaee'a 21

o prawdopodobieristwie calkowitym 16

Czebyszewa 55

uklad zupelny zdarzeri 16 wariaej a bez powtorzen 144 - z powt6rzeniami 144

warianeja 37,70 warianeje resztkowe 64 wartosc oezekiwana 34 - przecietna 34

- srednia 34

weryfikaeja hipotez 85

w lasnose minimalnosci 60

pewne 10 przeciwne 10 wyklucaajace si .. 10 zale:ine 15

zmienne losowe 22, 71

- dwuwymiarowe 29, 47 niezale:ine 30

- nieskorelowane 49

zmienne typu ciaglego 23

. mieszanego 23

- - skokowego 23

You're Reading a Free Preview

Download
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->