Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
PDF generato attraverso il toolkit opensource ''mwlib''. Per maggiori informazioni, vedi [[http://code.pediapress.com/ http://code.pediapress.com/]]. PDF generated at: Wed, 10 Oct 2012 06:21:56 UTC
Indice
Voci
PR08A81L1TA' di Base
Probabilit Spazio campionario Indipendenza stocastica Probabilit condizionata Teorema della probabilit totale 1 1 8 13 14 17 20 20 21 25 26 27 30 34 37 40 44 44 45 48 52 52 55 59 66 70 70 75 84 96
Rapporti agili
Distribuzione discreta Distribuzione discreta uniforme Paradosso del compleanno Distribuzione di Bernoulli Processo di Bernoulli Distribuzione binomiale Distribuzione geometrica Distribuzione ipergeometrica Distribuzione di Pascal
Mangia&Bevi
Variabili dipendenti e indipendenti Valore atteso Varianza
Pignoni
Serie geometrica Teorema binomiale Triangolo di Tartaglia Calcolo combinatorio
Tappe in linea
Poker Problema di Monty Hall Lotto Roulette
Blackjack
98
Note
Fonti e autori delle voci Fonti, licenze e autori delle immagini 104 106
PR08A81L1TA' di Base
Probabilit
Il concetto di probabilit, utilizzato a partire dal '600, diventato con il passare del tempo la base di diverse discipline scientifiche rimanendo tuttavia non univoco. In particolare su di esso si basa una branca della statistica (la statistica inferenziale), cui fanno ricorso numerose scienze sia naturali che sociali.
Cenni storici
I primi studi che portarono successivamente a concetti legati alla probabilit possono essere trovati a met del XVI secolo in Liber de ludo ale di Girolamo Cardano (scritto nel 1526, ma pubblicato solo un secolo e mezzo dopo, nel 1663) e in Sulla scoperta dei dadi di Galileo Galilei (pubblicato nel 1656). In particolare, Galileo spieg come mai, lanciando tre dadi, la probabilit di uscita delle somme 10 e 11 sia pi probabile dell'uscita del 9 e del 12, nonostante entrambi i risultati si ottengano da un uguale numero di combinazioni.[1]
Il problema della ripartizione della posta in gioco nel caso che un gioco d'azzardo debba essere interrotto, venne affrontato da Luca Pacioli, noto anche come Fra Luca dal Borgo, nella sua Summa de arithmetica, geometria, proportioni et proportionalita (pubblicata nel 1494) e successivamente da Tartaglia, per poi essere risolto da Pascal e Fermat. La nascita del concetto moderno di probabilit viene attribuita a Blaise Pascal (1623-1662) e Pierre de Fermat (1601-1665). Il Cavalier de Mr (un accanito giocatore passato alla storia per questo) aveva calcolato che ottenere almeno un 6 in 4 lanci di un dado non truccato era equivalente ad ottenere almeno un doppio 6 in 24 lanci, sempre di un dado non truccato. Tuttavia, giocando secondo tale convinzione, invece di vincere perdeva e scrisse a Pascal lamentando che la matematica falliva di fronte all'evidenza empirica.[2] Da ci scatur una corrispondenza tra Pascal e Fermat in cui inizi a delinearsi il concetto di probabilit nell'accezione frequentista. Pascal annunci nel 1654 all'Accademia di Parigi che stava lavorando sul problema della ripartizione della messa in gioco. E in una lettera del 29 luglio dello stesso anno a Fermat propose la soluzione del problema, affrontato con il metodo per ricorrenza, mentre Fermat utilizzava metodi basati sulle combinazioni. Nel 1657 Christiaan Huygens (1629-1695) scrisse un Libellus de ratiociniis in ludo ale,[3], il primo trattato sul calcolo delle probabilit, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro Pierre de Montmort (1678-1719), che scrisse nel 1708 un Essai d'analyse sur le jeux de hasard, ma anche Jakob Bernoulli e Abraham de Moivre. Nel 1713 viene pubblicato postumo Ars conjectandi di Jakob Bernoulli, dove veniva dimostrato il teorema che porta il suo nome, noto anche come legge dei grandi numeri. Successivamente, de Moivre pervenne ad una prima formulazione, poi generalizzata da Pierre Simon Laplace (1749-1827), del Teorema centrale del limite. La teoria delle probabilit raggiunse cos basi matematicamente solide e, con esse, il rango di nuova disciplina. In essa esercita un ruolo centrale il rapporto tra casi favorevoli e casi possibili e la probabilit un numero intrinsecamente legato ad un evento. Negli anni centrali del XX secolo, tuttavia, prima Bruno de Finetti e poi Leonard Jimmie Savage hanno elaborato una concezione soggettiva della probabilit, secondo cui essa il grado di
Probabilit fiducia che una persona ha nel verificarsi dell'evento. Nello stesso periodo, Andrey Nikolaevich Kolmogorov ha dato inizio alla moderna teoria assiomatica (Grundbegriffe der Wahrscheinlichkeitsrechnung, 1933), ispirandosi alla teoria della misura. Si cos affermata una teoria della probabilit puramente matematica, che generalizza il patrimonio matematico comune alle diverse impostazioni.
Definizioni
In probabilit si considera un fenomeno osservabile esclusivamente dal punto di vista della possibilit o meno del suo verificarsi, prescindendo dalla sua natura. Tra due estremi, detti evento certo (ad esempio: lanciando un dado si ottiene un numero compreso tra 1 e 6) ed evento impossibile (ottenere 1 come somma dal lancio di due dadi), si collocano eventi pi o meno probabili (aleatori). Si usa il linguaggio della teoria degli insiemi: un insieme non vuoto ha come elementi tutti i risultati possibili di un esperimento; l'evento che risulta verificato da un unico risultato (un unico elemento di ) viene detto evento elementare; altri eventi sono sottoinsiemi di costituiti da pi risultati.[4] Gli eventi vengono normalmente indicati con lettere maiuscole. Dati due eventi A e B, si indica con AB la loro unione, ovvero l'evento costituito dal verificarsi dell'evento A oppure dell'evento B. Si indica con AB la loro intersezione, ovvero l'evento costituito dal verificarsi sia dell'evento A che dell'evento B.[5] Se AB = i due eventi A e B vengono detti incompatibili (non possono verificarsi simultaneamente). Il complemento di un evento A rispetto a , \A, detto negazione di A e indica il suo non verificarsi (ovvero il verificarsi dell'evento complementare).
Definizione classica
Secondo la prima definizione di probabilit, per questo detta classica, la probabilit di un evento il rapporto tra il numero dei casi favorevoli all'evento e il numero dei casi possibili, purch questi ultimi siano tutti equiprobabili. Questa definizione spesso attribuita a Pierre Simon Laplace e quindi anche identificata definizione classica di Laplace. Indicando con l'insieme di casi possibili e con ||=n la sua cardinalit, con A un evento e con nA il numero dei casi favorevoli ad A (ad esempio, nel lancio di un dado ={1,2,3,4,5,6}, n = 6, A = "numero pari", nA = 3), la probabilit di A, indicata con P(A), pari a:
Dalla definizione seguono tre regole: 1. la probabilit di un evento aleatorio un numero compreso tra 0 e 1; 2. la probabilit dell'evento certo pari a 1; se A = "numero compreso tra 1 e 6", nA = 6 e nA/n = 1; 3. la probabilit del verificarsi di uno di due eventi incompatibili, ovvero di due eventi che non possono verificarsi simultaneamente, pari alla somma delle probabilit dei due eventi; se A = "numero pari", con P(A) = 1/2, e B= "esce il 3", con P(B) = 1/6, la probabilit che tirando un dado si ottenga un numero pari oppure un 3 :
La definizione classica consente di calcolare effettivamente la probabilit in molte situazioni. Inoltre, una definizione operativa e fornisce quindi un metodo per il calcolo. Presenta tuttavia diversi aspetti negativi non irrilevanti: dal punto di vista formale, una definizione circolare: richiede che i casi possiedano tutti la medesima probabilit, che per ci che si vuole definire; non definisce la probabilit in caso di eventi non equiprobabili; presuppone un numero finito di risultati possibili e di conseguenza non utilizzabile nel continuo.
Probabilit
Definizione frequentista
Per superare tali difficolt, Richard von Mises (1883-1953) propose di definire la probabilit di un evento come il limite cui tende la frequenza relativa dell'evento al crescere del numero degli esperimenti:
La definizione frequentista si applica ad esperimenti casuali i cui eventi elementari non siano ritenuti ugualmente possibili, ma assume che l'esperimento sia ripetibile pi volte, idealmente infinite, sotto le stesse condizioni. Anche tale definizione consente di calcolare la probabilit di molti eventi e da essa si ricavano le stesse tre regole che seguono dalla definizione classica. sufficiente, infatti, sostituire il rapporto tra numero dei casi favorevoli nA e numero dei casi possibili n con il limite del rapporto per n tendente all'infinito. Tuttavia: il "limite" delle frequenze relative non paragonabile all'analogo concetto matematico; ad esempio, data una successione {an}, si dice che a il suo limite se per ogni > 0 esiste un numero naturale N tale che |an - a| < per ogni n > N, e, comunque dato , sempre possibile calcolare N; nella definizione frequentista, invece, N non sempre calcolabile; non tutti gli esperimenti sono ripetibili; ad esempio, ha sicuramente senso chiedersi quale sia la probabilit che vi sia vita su Marte o che tra 50 anni il tasso di natalit in Africa diventi la met di quello attuale, ma in casi simili non possibile immaginare esperimenti ripetibili all'infinito.
Definizione soggettiva
De Finetti e Savage[6] hanno proposto una definizione di probabilit applicabile ad esperimenti casuali i cui eventi elementari non siano ritenuti ugualmente possibili e che non siano necessariamente ripetibili pi volte sotto le stesse condizioni: la probabilit di un evento il prezzo che un individuo ritiene equo pagare per ricevere 1 se l'evento si verifica, 0 se l'evento non si verifica. Al fine di rendere concretamente applicabile la definizione, si aggiunge un criterio di coerenza: le probabilit degli eventi devono essere attribuite in modo tale che non sia possibile ottenere una vincita o una perdita certa. In tal modo possibile ricavare dalla definizione soggettiva le stesse tre regole gi viste. 1. P(A) compresa tra 0 e 1; se infatti fosse negativa si avrebbe un guadagno certo, se fosse maggiore di 1 si avrebbe una perdita certa; 2. P() = 1; se l'evento certo, si ricever sicuramente 1, ma se fosse P() < 1 si avrebbe un guadagno certo, pari a 1 - P(), se invece fosse P() > 1 si avrebbe una perdita certa; 3. se AB = , P(AB) = P(A)+P(B). Si osserva preliminarmente che se gli n eventi A1, A2, ..., An sono incompatibili (non possono presentarsi insieme) e necessari (uno di loro deve necessariamente verificarsi), la somma delle probabilit P(Ai), con i che va da 1 a n, uguale a 1; infatti, se si paga P(Ai) per ciascun evento, se la somma fosse inferiore a 1 si avrebbe un guadagno certo, se fosse superiore si avrebbe una perdita certa. Si considerano poi gli eventi incompatibili A e B e l'evento complemento della loro unione; i tre eventi sono incompatibili e necessari e si ha: Sono per incompatibili anche l'unione di A e B ed il suo complemento: Dalle due uguaglianze segue: se , allora La definizione soggettiva consente quindi di calcolare la probabilit di eventi anche quando gli eventi elementari non sono equiprobabili e quando l'esperimento non pu essere ripetuto. Rimane fondata, tuttavia, sull'opinione di singoli individui, che potrebbero presentare diverse propensioni al rischio. .Basta pensare che molti sarebbero disposti a
Probabilit giocare 1 euro per vincerne 1000, ma pochi giocherebbero un milione di euro per vincerne un miliardo.....
Definizione assiomatica
L'impostazione assiomatica della probabilit venne proposta da Andrey Nikolaevich Kolmogorov nel 1933 in Grundbegriffe der Wahrscheinlichkeitsrechnung (Concetti fondamentali del calcolo delle probabilit), sviluppando la ricerca che era ormai cristallizzata sul dibattito fra quanti consideravano la probabilit come limiti di frequenze relative (cfr. impostazione frequentista) e quanti cercavano un fondamento logico della stessa. Va notato che la definizione assiomatica non una definizione operativa e non fornisce indicazioni su come calcolare la probabilit. quindi una definizione utilizzabile sia nell'ambito di un approccio oggettivista che nell'ambito di un approccio soggettivista. Il nome deriva dal procedimento per "assiomatizzazione" quindi nell'individuare i concetti primitivi, da questi nell'individuare i postulati da cui poi si passava a definire i teoremi. L'impostazione assiomatica muove dal concetto di -algebra, o classe additiva. Dato un qualsiasi esperimento casuale, i suoi possibili risultati costituiscono gli elementi di un insieme non vuoto , detto spazio campionario, e ciascun evento un sottoinsieme di . La probabilit viene vista, in prima approssimazione, come una misura, cio come una funzione che associa a ciascun sottoinsieme di un numero reale non negativo tale che la somma delle probabilit di tutti gli eventi sia pari a 1. Se ha cardinalit finita n o infinita numerabile, l'insieme di tutti i suoi sottoinsiemi, detto insieme delle parti, ha, rispettivamente, cardinalit 2n o la cardinalit del continuo. Tuttavia, se ha la cardinalit del continuo, il suo insieme delle parti ha cardinalit superiore e risulta "troppo grande" perch si possa definire su di esso una misura. Si considerano pertanto i soli sottoinsiemi di che costituiscono una classe additiva , ovvero un insieme non vuoto tale che se un evento A appartiene ad , vi appartiene anche il suo complemento:
se un'infinit numerabile di eventi, A1, A2, ... An, ..., appartiene ad dalla loro unione:
Una classe additiva quindi un sottoinsieme delle insieme delle parti di che risulta chiuso rispetto alle operazioni di complemento e di unione numerabile. Si pu aggiungere che una classe additiva chiusa anche rispetto all'intersezione, finita o numerabile, in quanto per le leggi di De Morgan si ha:
(il secondo membro dell'uguaglianza appartiene alla classe in quanto complemento di una unione numerabile dei complementi di insiemi che vi appartengono). Si pongono i seguenti assiomi (che includono le tre regole ricavabili dalle definizioni precedenti): 1. 2. 3. 4. Gli eventi sono sottoinsiemi di uno spazio e formano una classe additiva . Ad ogni evento assegnato un numero reale non negativo P(A), detto probabilit di A. P()=1, ovvero la probabilit dell'evento certo pari ad 1. Se l'intersezione tra due eventi A e B vuota, allora P(AB)=P(A)+P(B).
5. Se An una successione decrescente di eventi e al tendere di n all'infinito l'intersezione degli An tende all'insieme vuoto, allora P(An) tende a zero:[7]
Probabilit La funzione P(A) viene detta funzione di probabilit, o anche distribuzione di probabilit. La terna detta spazio di probabilit. Dagli assiomi si ricavano immediatamente alcune propriet elementari della probabilit: Se P(A) la probabilit di un evento A, la probabilit dell'evento complementare 1-P(A). Infatti, poich l'intersezione di A e del suo complemento vuota e la loro unione , dagli assiomi 3 e 4 si ricava: viene
La probabilit dell'evento impossibile pari a zero. Infatti l'insieme vuoto il complemento di e si ha:
La probabilit di un evento minore o uguale a 1. Infatti, dovendo la probabilit essere non negativa per il secondo assioma, si ha:
Se un evento A incluso in un evento B, allora la sua probabilit minore o uguale a quella di B. Infatti, se B include A pu essere espresso come unione di insiemi disgiunti e si ha:
Teoremi di base
Dai suddetti assiomi derivano alcuni teoremi e concetti fondamentali. Il teorema della probabilit totale consente di calcolare la probabilit dell'unione di due o pi eventi, ovvero la probabilit che si verifichi almeno uno di essi. Essa la somma delle probabilit dei singoli eventi se sono a due a due incompatibili; in caso contrario, alla somma va sottratta la somma delle probabilit delle intersezioni due a due, poi aggiunta la somma delle probabilit delle intersezioni a tre a tre e cos via. Ad esempio, nel caso di tre eventi:
Si dice probabilit condizionata di A dato B, e si scrive P(A|B), la probabilit che l'evento A ha di verificarsi quando si s che B si verificato:
Attraverso tale concetto si perviene al teorema della probabilit composta, che consente di calcolare la probabilit dell'intersezione di due o pi eventi, ovvero la probabilit che essi si verifichino tutti. Nel caso di due eventi (che pu essere generalizzato), si ha:
Nel caso che la probabilit di A dato B, P(A|B), sia uguale a P(A), i due eventi vengono definiti indipendenti stocasticamente (o probabilisticamente) e dalla stessa definizione segue una diversa formulazione della probabilit composta, caso particolare del precedente: P(AB)=P(A)P(B). Il teorema di Bayes consente di calcolare la probabilit a posteriori di un evento Ai, quando si sappia che si verificato un evento E. Se Ai appartiene ad un insieme finito o numerabile di eventi a due a due incompatibili, e se E si verifica allora si verifica necessariamente uno degli eventi di tale insieme (ed uno solo, dato che sono incompatibili), allora, conoscendo le probabilit a priori degli eventi Ai e le probabilit condizionate P(E|Ai) e sapendo che si verificato E, si pu calcolare la probabilit a posteriori di un particolare Ai:
Pi discorsivamente: se si conoscono sia le probabilit a priori delle diverse possibili "cause" di E (ma non si sa per effetto di quale di esse E si verificato), sia le probabilit condizionate di E data ciascuna delle cause, possibile calcolare la probabilit che E si sia verificato per effetto di una particolare causa.
Probabilit
Probabilismo ontico
Il probabilismo ontico una teoria ontologica in base alla quale ci che necessario rappresenta il massimo delle probabilit e ci che casuale il minimo delle probabilit. L'alternanza dialettica necessit/caso si d quindi in una scala astratta, ma matematicamente calcolabile per approssimazione caso per caso con adeguati algoritmi, dove la casualit l'estrema improbabilit e la necessit l'estrema probabilit.
Note
[1] Il 9 si ottiene con le sei combinazioni (1,2,6), (1,3,5), (1,4,4), (2,2,5), (2,3,4), (3,3,3), il 10 con le sei combinazioni (1,3,6), (1,4,5), (2,2,6), (2,3,5), (2,4,4), (3,3,4), l'11 con (1,4,6), (2,3,6), (2,4,5), (1,5,5), (3,3,5), (3,3,4) e il 12 con (1,5,6), (2,4,6), (2,5,5), (3,4,5), (3,3,6), (4,4,4). Tuttavia, mentre una combinazione di tre numeri uguali pu presentarsi in un solo modo, una con due numeri uguali pu presentarsi in tre modi diversi, una con tre numeri diversi in sei modi diversi. Si pu quindi ottenere il 10 e l'11 in 27 modi (6+6+3+6+3+3), il 9 e il 12 in 25 modi (6+6+3+3+6+1). [2] Secondo il Cavaliere, essendo 1/6 la probabilit del 6 con un dado, in quattro lanci la probabilit sarebbe 4 1/6 = 2/3; la probabilit del doppio 6 in due lanci invece 1/36 e, per arrivare a 2/3, occorrono 24 lanci: 24 1/36 = 2/3. In realt la probabilit di ottenere almeno un 6 si calcola meglio a partire dall'evento complementare, "nessun 6 in quattro lanci", che (5/6)4, e sottraendo questa da 1, ottenendo il 51,8%; nello stesso modo si calcola che la probabilit di almeno un doppio 6 in 24 lanci 1 (35/36)24 = 49%. [3] La ristampa della traduzione inglese disponibile in http:/ / www. stat. ucla. edu/ history/ huygens. pdf. [4] Ad esempio, nel lancio di un dado l'insieme costituito dai sei risultati {1,2,3,4,5,6}; l'evento "esce il 3" rappresentato dall'insieme {3}, l'evento "esce un numero pari" rappresentato dall'insieme {2,4,6}. [5] Ad esempio, restando al lancio di un dado, se A = {2} e B = {4,6}, l'evento AB {2,4,6}, ovvero "esce un numero pari". Se invece A = "esce un numero pari" e B = "esce un numero minore o uguale a 3", AB = {2}. [6] L'impostazione soggettiva era stata anticipata da Ramsey nel 1926. [7] Una successione di insiemi detta decrescente se ciascun insieme include il successivo. V. Limite insiemistico.
Probabilit
Bibliografia
Remo Cacciafesta, Lezioni di calcolo delle probabilit, Veschi, Roma, 1983 Giorgio Dall'Aglio, Calcolo delle probabilit, Zanichelli, Bologna, 2003 Domenico Piccolo, Statistica, Il Mulino, Bologna, 1998, Parte Seconda, Cap. VIII, pp. 215-291 Devlin Keith, La lettera di Pascal. Storia dell'equazione che ha fondato la teoria della probabilit, Rizzoli, 2008
Voci correlate
Teoria della probabilit Probabilismo Evento Teorema di Cox Campionamento statistico Logica della diagnosi clinica Legge dei grandi numeri Kolmogorov. Bruno de Finetti Meccanica quantistica Indeterminismo Statistica Statistica inferenziale Storia della statistica Calcolo combinatorio
Collegamenti esterni
(EN) Probability and Statistics EBook (http://wiki.stat.ucla.edu/socr/index.php/EBook) (FR) Journal sur l'histoire des probabilits et des statistiques (http://www.jehps.net/) et site associ (articles, bibliographie, biographies)
Spazio campionario
Spazio campionario
Nel calcolo delle probabilit lo spazio campionario o insieme universo (generalmente indicato dalle lettere S, o U) l'insieme dei possibili risultati di un esperimento casuale. Ad esempio, nel lancio di un dado lo spazio campionario l'insieme {1,2,3,4,5,6}, nel lancio di una moneta pu essere l'insieme {testa, croce}, e cos via. Lo spazio campionario pu anche avere infiniti elementi: se, ad esempio, siamo interessati allo studio della caduta di una pallina su un pavimento, lo spazio campionario corrisponder all'insieme dei punti del pavimento, considerati tutti come possibili punti di impatto della pallina.
Definizioni formali
Eventi
Dato un esperimento casuale detto evento elementare Si dice evento un qualsiasi sottoinsieme raggruppamento di uno o pi eventi elementari. L'evento corrispondente all'intero spazio campionario certo. L'evento corrispondente all'insieme vuoto (costituito da nessun evento elementare) detto evento impossibile. Dato uno spazio campionario associato a un esperimento, pu darsi che l'analisi da condurre non coinvolga tutti i possibili eventi ma solo una parte di essi. Gli eventi che hanno un ruolo in una specifica analisi vengono detti eventi di interesse. (costituito da tutti gli eventi elementari) detto evento uno dei possibili esiti dellesperimento stesso. . Dunque un evento non altro che un dello spazio campionario
Sigma-algebra
Sia uno spazio arbitrario purch non vuoto. Una famiglia ) detta di eventi di (cio una qualsiasi collezione di sottoinsiemi 1. 2. 3. ovvero: (1) l'evento certo un evento (come dire: "succede qualcosa"); (2) la negazione di un qualsiasi evento essa stessa un evento. (3) qualsiasi unione di eventi un evento (per esempio l'evento "si verifica E o F" l'unione degli eventi "si verifica E" e "si verifica F"). La propriet 1. del tutto equivalente a: 1'. La propriet 3. del tutto equivalente a: 3'. cio una sigma-algebra anche chiusa rispetto a intersezioni numerabili. La sigma-algebra il metodo pi appropriato per descrivere un insieme di eventi dato un insieme di eventi elementari. Essa una generalizzazione del concetto di algebra di insiemi, che richiede solo la stabilit per unioni finite. -algebra (sigma-algebra) se contiene ed chiusa rispetto alle operazioni
Spazio campionario Tuttavia se si utilizzasse il concetto di algebra di insiemi per descrivere il concetto di evento si incorrerebbe nello spiacevole inconveniente di non considerare eventi dei fenomeni quali "prima o poi piove". Infatti questo evento traducibile in linguaggio insiemistico come "piove oggi" oppure "piove domani" oppure " piove dopodomani" oppure ...; ovvero l'evento descritto dall'unione di infiniti eventi, , quindi , da cui deriva che per la
nostro modello, il che sembra piuttosto deludente. Per ovviare a ci si introduce la nozione di sigma-algebra sopra esposta. Dato uno spazio arbitrario con e una famiglia di suoi sottoinsiemi possibile, sempre e in vari modi, estendere la viene indicata famiglia sino a renderla una sigma-algebra. La pi piccola sigma-algebra contenente la famiglia e detta sigma-algebra generata dalla famiglia. Le sigma-algebre sono un concetto ampiamente trattato in teoria della misura.
Spazio campionario
Linsieme degli eventi elementari, visti come punti, viene detto spazio campionario. Una sigma-algebra costruita su di esso viene detta spazio degli eventi.
Osservazioni
Nell'insieme delle parti di un sottoinsieme dellinsieme Un evento un sottoinsieme di gli elementi sono i sottoinsiemi di delle parti di . . Quindi una famiglia di sottoinsiemi di
e non un suo elemento. Quindi un evento, in quanto insieme, non appartiene priva di significato) ma incluso nello spazio campionario. Di , insieme , in quanto punto, appartiene allo spazio campionario e l'evento
costituito da un singolo punto (e perci detto singoletto), incluso nello spazio campionario. Se la cardinalit di finita allora la -algebra pu coincidere con linsieme delle parti ma non detto che sia necessario prendere una famiglia di eventi cos grande. Ovviamente nulla vieta di prendere come spazio degli eventi proprio linsieme delle parti. Questo perch nel caso di cardinalit finita sempre possibile prendere come -algebra lintero insieme delle parti senza rischiare di incappare in eventi ai quali non possibile attribuire una probabilit . Se invece la cardinalit di infinita non detto che sia possibile definire . In tale caso
pu darsi che scegliere linsieme delle parti come sigma-algebra non sia una scelta felice: in virt della terza propriet delle sigma-algebre, quando passiamo alla probabilit vengono coinvolte delle serie che non detto convergano. In generale si cerca sempre di scegliere una sigma-algebra che sia piccola: pi piccola meno problemi crea. Il fatto che sia piccola e non coincidente con lintero insieme delle parti non vuol dire che alcuni eventi elementari restino esclusi infatti, per definizione di sigma-algebra, possiamo dire che . In altri termini le sigma-algebre definite su sono una copertura di .
Spazio campionario
10
Finito
I pi semplici esperimenti aleatori consistono nel lancio di una moneta o di un dado, o nell'estrazione di una pallina da un'urna. In ogni caso lo spazio campionario sar un insieme costituito da un numero finito di eventi elementari. In genere, ma non necessariamente, essi saranno rappresentati dai primi n numeri interi: piuttosto che .
Numerabile
Molti importanti modelli probabilistici, come ad esempio quello poissoniano utilizzato per contare il numero di accadimenti che si verificano in un intervallo di tempo fissato, si basano su uno spazio campionario numerabile e coincidente, quindi con tutto o con .
Continuo
Solitamente il modello continuo per eccellenza la retta reale, come nel caso degli errori di misura nelle osservazioni scientifiche il cui studio sistematico stato avviato da Karl Friedrich Gauss nel 1809. Altri modelli, utili per rappresentare i tempi di vita di componenti elettronici, hanno come modello la semiretta reale positiva.
Vettoriale finito
Spesso un esperimento costituito da una sequenza finita di altri esperimenti come, ad esempio, il lancio di un dado ripetuto n volte. In tale caso, se lo spazio campionario del singolo lancio, lo spazio campionario complessivo sar dato dal prodotto . Lo spazio campionario del singolo esperimento potr essere sia finito che numerabile che continuo. cartesiano dei singoli spazi:
Vettoriale numerabile
Come nel caso vettoriale finito con l'unica differenza che la sequenza dei singoli esperimenti non finita ma numerabile dunque: . Tale modello compare, ad esempio, nelle analisi di qualit dei pezzi uscenti da una linea di produzione con o nella passeggiata aleatoria (random walk) con .
Funzionale
In alcuni esperimenti aleatori della fisica, gli esiti dell'esperimento sono i percorsi o le traiettorie di una particella in un certo intervallo di tempo. Quindi ogni esito, in questo caso, una funzione. Tale modello emerge insistentemente nei processi stocastici.
Spazio campionario
11
Esempi
Un foglio in pezzi
Prendiamo un qualsiasi foglio: nella sua interezza rappresenter il nostro spazio campionario. Le singole particelle del foglio corrisponderanno ai punti dello spazio campionario ovvero agli eventi elementari. Se ora strappiamo in pezzi il foglio, ognuno dei pezzi rappresenter un evento che, in quanto aggregato di particelle, sar un sottoinsieme del foglio originale e, in quanto pezzo, sar un elemento dell'insieme dei pezzi del foglio (l'insieme delle parti). Osserviamo che un foglio strappato in pezzi costituisce una partizione del foglio originale. I pezzi in cui abbiamo strappato il foglio non esauriscono tutto l'insieme delle parti ma ne costituiscono solo una sua famiglia. Tale famiglia pu essere estesa ad una sigma-algebra aggiungendo ad essa anche tutte le possibili composizioni ottenibili con le operazioni insiemistiche di unione numerabile, intersezione numerabile e complementazione. Ad esempio dovremo aggiungere alla famiglia l'unione di tutti i pezzi (l'intero foglio). Accanto ad ogni pezzo della famiglia dovremo aggiungere il suo complementare (ovvero l'unione di tutti gli altri pezzi). E via dicendo. Notiamo che questo procedimento ci conduce ad una sigma-algebra ma non all'insieme delle parti. Per arrivare all'insieme delle parti dovremmo ripetere il procedimento anche per tutti gli altri modi in cui possiamo strappare il foglio originale.
possibili
coppie, i pari
La scelta della -algebra da usare dipende dagli obiettivi. Se, ad esempio, siamo interessati a calcolare la probabilit che esca un numero pari, gli unici eventi di interesse saranno A=" uscito un pari" e il suo complementare. La pi piccola sigma-algebra contenente l'evento A sar: . Non l'unica ma, tra tutte le sigma algebre contenenti l'evento A, la pi piccola dunque quella che genera meno lavoro e meno problemi.
Spazio campionario
12
Sigma-algebra di Borel su
Questo esempio non intuitivo ma qui riportato perch celebre, perch riveste un ruolo fondamentale in gran parte della teoria della probabilit e perch nonostante la sua semplicit ( sufficiente investigare su un numero infinito di lanci di una moneta per incappare in una sigma-algebra di Borel) ha messo in crisi la teoria classica della probabilit richiedendone la rivisitazione assiomatica di Kolmogorov. Sia intervalli di l'intervallo reale unitario aperto a sinistra e chiuso a destra. Sia, inoltre , della forma con . . la famiglia degli
Consideriamo, inoltre, tutte le unioni finite e disgiunte di tali intervalli: Aggiungiamo infine anche l'insieme vuoto. La famiglia
cos ottenuta nota come algebra di Borel. Nonostante tale famiglia sia assai numerosa, ancora non che, in virt
abbiamo a che fare con una sigma-algebra. Ad esempio sono esclusi dalla famiglia i singoletti famiglia:
della propriet 3', dovrebbero invece essere presenti in quanto ognuno intersezione numerabile di insiemi della
A questo punto facile immagine Emile Borel, colto da sensi di colpa per aver abbandonato il piano astratto e aver tentato di costruire la sua sigma-algebra elemento per elemento, si rifugia in un buio sgabuzzino urlando da dietro la porta: "la sigma-algebra esiste e non banale!" (ovvero non coincide con l'insieme delle parti di ). Che non coincida con lo ha gi appurato Borel e noi abbiamo appena visto che i singoletti appartengono a non contenuto in e quindi dare conforto all'ipotesi ma non a . Per scoprire un sottoinsieme di
lo . Certo. Ma la prima non ci serve a nulla perch non distingue tra pari e dispari mentre la seconda distingue troppo: che ci importa sapere se il dispari uscito 1 o 3 o 5 ? la migliore partizione rispetto al problema in esame. Tra l'altro questo, come abbiamo gi visto, uno dei rarissimi casi in cui costruire la sigma-algebra non reato (o tentato suicidio). Se, per qualche motivo, dobbiamo esaminare tutte e sei le possibili configurazioni allora la partizione che dovremo costruire sar la pi fine possibile: . Una volta assegnato questo spazio campionario, per generare la sua sigma-algebra si considerano tutte le possibili unioni tra i suoi elementi e i loro complementari (ragionamento valido per ogni insieme finito). Ad esempio quindi la sigma-algebra conterr: Il grosso vantaggio nel lavorare solo con la giusta partizione diventa chiaro in fase di assegnazione di una misura di probabilit.
Spazio campionario
13
Bibliografia
P. Halmos (1950): Measure theory, D. van Nostrand and Co. P. Billingsley (1995): Probability and Measure, John Wiley & Sons A. F. Karr (1993): Probability, Springer-Verlag
Voci correlate
Misura di probabilit Spazio di probabilit Variabile casuale
Indipendenza stocastica
Nell'ambito del calcolo delle probabilit, l'indipendenza stocastica di due eventi A e B si ha quando il verificarsi di uno non modifica la probabilit di verificarsi dell'altro, ovvero quando la probabilit condizionata P(A | B) oppure P(B | A) pari rispettivamente a P(A) e P(B) P(A | B) = P(A) P(B | A) = P(B) queste due condizioni si possono sintetizzare con la formula P(A B) = P(A) P(B). In altre parole, dire che due eventi sono indipendenti tra loro significa dire che il fatto di sapere che uno di essi si verificato non modifica la valutazione di probabilit sul secondo. Per esempio, il fatto di ottenere "1" quando viene lanciato un dado ed il fatto di ottenere ancora un "1" la seconda volta che il dado viene lanciato, sono indipendenti. Analogamente, quando si afferma che due variabili casuali X e Y definite sullo stesso spazio campionario H sono indipendenti si afferma che conoscere qualcosa riguardo al valore di una di esse non apporta alcuna informazione circa il valore dell'altra. Per esempio, il numero che appare sulla faccia superiore di un dado la prima volta che viene lanciato e il numero che appare la seconda volta sono indipendenti. Formalmente, questo si verifica quando per ogni coppia di eventi B, B' risulta P(X B Y B' ) = P(X B) P (Y B' ) Equivalentemente ci si verifica se, detta F la funzione di ripartizione della variabile congiunta (X,Y) e fX, fY le due funzioni di ripartizione marginali, allora per ogni x,y vale che F(x,y)=fX(x) fY(y) Condizioni analoghe si trovano per la funzione di densit di probabilit e la funzione di probabilit, se X rispettivamente una variabile casuale continua o una variabile casuale discreta: f(x,y)=fX(x) fY(y) e p(x,y)=pX(x) pY(y)
Indipendenza stocastica
14
Generalizzazioni
Nell'ambito della teoria della probabilit, la nozione di indipendenza stocastica pu essere generalizzata ampiamente. Sia uno spazio di probabilit, e sia una famiglia arbitraria (finita o non finita) di -algebre contenute in : di . Esse si dicono indipendenti rispetto a , e per ogni sottoinsieme . Questa nozione si riduce alla precedente nel caso in cui la famiglia di -algebre sia formata da due soli elementi e , dove, dato un insieme misurabile , la -algebra da esso generata: . Questa estensione, ampiamente usata nella teoria dei processi stocastici, trova la sua motivazione nel fatto che l'indipendenza stocastica di una famiglia di -algebre, non in generale equivalente all'indipendenza dei suoi elementi a due a due. Ad esempio, dati tre insiemi , sapendo che e , e , e sono indipendenti, non se ne pu dedurre che: . , accade: se, per ogni sottoinsieme finito
Voci correlate
probabilit probabilit condizionata Mark Kac Hugo Steinhaus Paradosso del compleanno
Probabilit condizionata
In teoria della probabilit la probabilit condizionata di un evento A rispetto a un evento B la probabilit che si verifichi A, sapendo che B verificato. Questa probabilit, indicata o , esprime una "correzione" delle aspettative per A, dettata dall'osservazione di B. (Ha senso solo se B ha una probabilit non nulla di verificarsi.)
Esempio
Per esempio, la probabilit di ottenere "4" con il lancio di un comune dado (evento A) ha probabilit P(A)=1/6 di verificarsi. Sapendo per che il risultato del lancio un numero tra "4", "5" e "6" (evento B), la probabilit di A diventa .
Probabilit condizionata
15
Definizione
La probabilit di A condizionata da B , dove la probabilit congiunta dei due eventi, ovvero la probabilit che si verifichino entrambi. di misura P, ogni evento B eredita una struttura di spazio . Se ), allora riscalando a uno spazio probabilizzato ( si ottiene lo spazio
, restringendo gli insiemi misurabili a quelli contenuti in B, ed induce una nuova misura ) e B non trascurabile (
probabilizzato
Propriet
La formula della probabilit condizionata permette di descrivere la probabilit congiunta come
Ovvero, la probabilit che si verifichino sia A che B pari alla probabilit che si verifichi B moltiplicata per la probabilit che si verifichi A supponendo che B sia verificato. Due eventi A e B sono indipendenti quando vale una delle tre equazioni equivalenti ; ; .
Casi particolari
Se A e B sono eventi disgiunti, cio se Se l'evento A implica l'evento B, cio se (A implica B); (B necessario per A). , le loro probabilit condizionate sono nulle: sapendo che uno , allora la loro intersezione A, per cui e: dei due eventi si verificato, impossibile che si sia verificato anche l'altro.
Nel caso di una misura di probabilit uniforme su uno spazio finito, questa formula per P(A|B) esprime la definizione classica di probabilit come "casi favorevoli (A) su casi possibili (B)". Invece, per P(B|A) otteniamo il valore 1 che, per un numero finito di valori lo stesso Bayes interpret in senso lato come la certezza che il tutto. sia condizionato dalla parte.
Probabilit condizionata
16
Ulteriori definizioni
La speranza condizionata di una variabile aleatoria X ad un evento B la speranza di X calcolata sulle probabilit (condizionate da B). La probabilit di un evento A pu essere condizionata da una variabile aleatoria discreta X, originando una nuova variabile aleatoria, , che per X=x assume il valore .
Applicazioni
Il teorema di Bayes esprime l'uguaglianza simmetrica probabilit composta come . Questo teorema alla base dell'inferenza bayesiana in statistica, dove P detta "probabilit a priori di B" e PB "probabilit a posteriori di 'B". del teorema della
Paradossi
Molti paradossi sono legati alla probabilit condizionata e derivano sia da un'errata formulazione del problema sia dalla confusione di P(A|B) con P(A) o con P(B|A). Esempi particolari sono il paradosso delle due buste, il paradosso dei due bambini, il problema di Monty Hall e il paradosso di Simpson.
Voci correlate
Probabilit congiunta Indipendenza (probabilit) Inferenza bayesiana Teorema di Bayes Teorema della probabilit composta Valore atteso condizionato
Bibliografia
Giuseppe Zwirner, L. Scaglianti, Itinerari nella matematica vol.1, Padova, CEDAM, 1989, ISBN 88-1316794-6
17
Eventi incompatibili
Dato un insieme finito o numerabile di eventi a due a due incompatibili, la probabilit dell'unione di tutti gli eventi uguale alla somma delle probabilit degli eventi. Questa una prima formulazione del teorema, che si dimostra come segue. Nel caso di due eventi A e B incompatibili, se cio AB = , si applica il quarto assioma della probabilit:
Si dimostra per induzione che ci vale anche per un insieme finito di eventi An a due a due incompatibili, ovvero che:
Infatti: dalla definizione di limite per successioni di insiemi crescenti si ha: ; dalla continuit delle funzione di probabilit segue:
18
Esempio
Se si lancia un dado, e si indicano con A1...A6 gli eventi "ottengo 1", ..., "ottengo 6", gli eventi sono a due a due incompatibili ed hanno ciascuno probabilit pari a 1/6. La probabilit dell'evento "ottengo un numero maggiore di 4" :
Eventi qualsiasi
Dato un insieme finito di eventi, la probabilit dell'unione di tutti gli eventi uguale a:
possibili sottoinsiemi di
elementi dell'insieme
. questa la formulazione pi generale del teorema, che vale anche per eventi non incompatibili e si dimostra come segue. Se gli eventi considerati non sono a due a due incompatibili, si deve tenere conto delle loro intersezioni. In particolare, la probabilit di due eventi A e B, in generale, pari alla somma delle singole probabilit P(A) e P(B) diminuita della probabilit della loro intersezione:
Infatti, scomponendo sia AB che B in unioni di insiemi disgiunti ed applicando ad esse il quarto assioma, si ha:
da cui segue la formula data sopra. Con pi di due eventi, alla somma delle probabilit di ciascuno si deve sottrarre la somma delle loro intersezioni due a due, poi aggiungere la somma delle loro intersezioni tre a tre e cos via. Nel caso di tre eventi A, B e C, si ha:
La formula per il caso di n eventi si dimostra per induzione (v. anche il principio di inclusione-esclusione).
Teorema della probabilit totale Il teorema nella sua forma generale non pu essere esteso a unioni numerabili di eventi. In tali casi risulta applicabile solo la disuguaglianza di Boole.
19
Esempi
Se si lanciano due dadi e si indicano con A1 l'evento "il primo dado d 6", con A2 l'evento "il secondo dado d 6", l'evento "almeno un dado d 6" unione di due eventi non incompatibili, in quanto pu verificarsi anche la loro intersezione ("entrambi i dadi danno 6"). La probabilit di ottenere almeno un 6 quindi:
In un ristorante vi sono 3 sale ed entrano 10 persone, ciascuna delle quali sceglie a caso una sala. Qual la probabilit che almeno una delle sale resti vuota? Le persone possono scegliere le sale in 310 modi diversi (numero delle disposizioni con ripetizione di 3 elementi di classe 10); vi sono 210 modi di lasciar vuota una sala (le 10 persone si dispongono solo in due sale). Indicando con Ai l'evento "rimane vuota la i-esima sala", le probabilit sono:
in quanto potrebbero restarne vuote due (un solo caso possibile: tutti nell'altra).
Voci correlate
Probabilit Principio di inclusione ed esclusione Probabilit condizionata Indipendenza stocastica Teorema della probabilit composta Teorema della probabilit assoluta Teorema di Bayes Legge delle aspettative iterate Legge della varianza totale
20
Rapporti agili
Distribuzione discreta
In teoria delle probabilit una distribuzione discreta una distribuzione di probabilit definita su un insieme discreto S. In particolare questo insieme pu essere finito oppure numerabile (i suoi elementi possono essere elencati tramite i numeri naturali: ). Una variabile aleatoria (o stocastica, o casuale dall'inglese random) discreta se segue una distribuzione di probabilit discreta. Se l'insieme S contenuto nei numeri reali, si pu definire la funzione di ripartizione della distribuzione, che assume valori su S; se viene rappresentata su tutti numeri reali allora acquista la forma di una funzione a gradini, costante sugli intervalli semiaperti . Particolari distribuzioni discrete di probabilit sono: la distribuzione discreta uniforme, la distribuzione binomiale, la distribuzione di Bernoulli, la distribuzione di Poisson (o degli eventi rari), la distribuzione geometrica, la distribuzione di Pascal, la distribuzione ipergeometrica, la distribuzione di Wilcoxon, la distribuzione di Benford (o della prima cifra), la distribuzione del test di Kolmogorov-Smirnov, la distribuzione di Spearman, la distribuzione di Rademacher. e .
Anche le distribuzioni su pi dimensioni (multivariate) possono essere discrete, come la distribuzione multinomiale.
Distribuzione discreta
21
Parametri
Supporto
Funzione di densit
Valore atteso
Varianza
Geometrica
Binomiale
di Pascal
Ipergeometrica
Voci correlate
Distribuzione di probabilit Funzione di ripartizione
22
Funzione di ripartizione
Parametri
Supporto Funzione di densit Funzione di ripartizione Valore atteso Mediana Moda Varianza Skewness Curtosi Entropia Funz. Gen. dei Momenti Funz. Caratteristica su per
In teoria delle probabilit una distribuzione discreta uniforme una distribuzione di probabilit discreta che uniforme su un insieme, ovvero che attribuisce la stessa probabilit ad ogni elemento dell'insieme discreto S su cui definita (in particolare l'insieme dev'essere finito). Un esempio di distribuzione discreta uniforme fornito dal lancio di un dado equilibrato: ognuno dei valori 1, 2, 3, 4, 5 e 6 ha eguale probabilit 1/6 di verificarsi. Questa distribuzione di probabilit quella che fornisce la classica definizione di probabilit "casi favorevoli su casi possibili": la probabilit di un evento data dal rapporto tra le cardinalit dei due insiemi,
23
Definizione
La distribuzione discreta uniforme su un insieme finito S la distribuzione di probabilit tutti gli elementi di S la stessa probabilit p di verificarsi. In particolare, dalla relazione che attribuisce a
Progressione aritmetica
Spesso viene considerata la distribuzione discreta uniforme su un insieme S i cui elementi sono in progressione aritmetica, ovvero del tipo . In questo caso l'insieme S pu essere descritto come un insieme di n elementi in progressione aritmetica, da a a b, con elementi della forma , con e .
In questo modo la distribuzione discreta uniforme diventa una sorta di approssimazione della distribuzione continua uniforme sull'intervallo
Caratteristiche
La distribuzione Inoltre ha varianza , curtosi , funzione generatrice dei momenti simmetrica rispetto al punto medio del segmento . Una variabile . aleatoria U con questa distribuzione ha quindi speranza e indice di asimmetria
24
Altre distribuzioni
Il parallelo della distribuzione discreta uniforme tra le distribuzioni di probabilit continue la distribuzione continua uniforme: una distribuzione definita su un insieme continuo S, che attribuisce la stessa probabilit a due intervalli della stessa lunghezza, contenuti in S, ovvero la cui densit di probabilit assume un valore costante su S.
Voci correlate
Distribuzione di probabilit Distribuzione discreta Distribuzione continua uniforme Progressione aritmetica
Collegamenti esterni
(EN) Eric W. Weisstein, Distribuzione discreta uniforme [1] su MathWorld.
Note
[1] http:/ / mathworld. wolfram. com/ DiscreteUniformDistribution. html
25
Per effettuare il calcolo, si ricorre alla formula per la probabilit degli eventi indipendenti: per rendere pi semplice il calcolo si assume che gli anni siano tutti di 365 giorni e che i compleanni siano equiprobabili, anche se ci non esatto[2]. Aggiungere il giorno bisestile peggiora leggermente la probabilit, ma in compenso il fatto che i compleanni non siano equiprobabili la alza. Il modo pi semplice per calcolare la probabilit P(p) che ci siano almeno due persone appartenenti ad un gruppo di p persone che compiano gli anni lo stesso giorno calcolare dapprima la probabilit P1(p) che ci non accada. Il ragionamento questo: data una qualunque persona del gruppo (indipendentemente dalla data del suo compleanno), vi sono 364 casi su 365 in cui il compleanno di una seconda persona avvenga in un giorno diverso; se si considera una terza persona, ci sono 363 casi su 365 in cui compie gli anni in un giorno diverso dalle prime due persone e via dicendo. Esprimendo in formule quanto sopra, la probabilit che tutti i compleanni cadano in date diverse :
e dunque la probabilit del suo evento complementare, cio che esistano almeno due compleanni uguali,
Questo paradosso ha importanti ricadute nella crittografia e nel dimensionamento del blocco da cifrare. In particolare nell'ambito della crittografia si utilizza il paradosso del compleanno per indicare che le funzioni hash crittografiche abbiano la propriet di "resistenza forte alle collisioni". Ad esempio una funzione di hash che produce un risultato su N bit sar reputata insicura quando verranno generati risultati in quanto si ha la probabilit di oltre il 50% di aver trovato una collisione, il risultato evidentemente ben al di sotto dei elementi necessari suggeriti dall'intuito.
26
Note
[1] Il termine paradosso non da intendersi nel senso di una contraddizione logica, ma viene chiamato in questo modo poich la verit matematica contraddice l'intuizione naturale: molte persone stimano che questa probabilit sia decisamente inferiore al 50%. [2] (EN) Leap Day -- from Eric Weisstein's World of Astronomy (http:/ / scienceworld. wolfram. com/ astronomy/ LeapDay. html).URL consultato in data 22-04-2009.
Collegamenti esterni
Il paradosso del compleanno (http://www.teacherlink.org/content/math/interactive/probability/lessonplans/ birthday/home.html)
Distribuzione di Bernoulli
Distribuzione di Bernoulli Funzione di distribuzione discreta Funzione di ripartizione Parametri Supporto Funzione di densit Funzione di ripartizione Valore atteso Mediana Moda Varianza Skewness Curtosi Entropia Funz. Gen. dei Momenti Funz. Caratteristica
In teoria delle probabilit la distribuzione di Bernoulli (o bernoulliana) una distribuzione di probabilit su due soli valori, 0 e 1, detti anche fallimento e successo. Prende il nome dallo scienziato svizzero Jakob Bernoulli (1654-1705).
Distribuzione di Bernoulli
27
Definizione
La distribuzione di Bernoulli di parametro
Altre leggi
Un processo di Bernoulli una serie di variabili aleatorie indipendenti Xi di uguale distribuzione di Bernoulli B(p), dette prove di Bernoulli. La distribuzione binomiale descrive il numero di successi in n prove, ovvero la variabile aleatoria . La distribuzione geometrica e pi in generale la distribuzione di Pascal descrivono il tempo del primo e del k-esimo successo, ovvero le variabili aleatorie e per cui
Voci correlate
Distribuzione binomiale Distribuzione geometrica Distribuzione di Pascal Distribuzione di probabilit Processo di Bernoulli
Processo di Bernoulli
In teoria delle probabilit un processo di Bernoulli un particolare processo aleatorio discreto, ovvero una famiglia numerabile (X1, X2, ...) di variabili aleatorie indipendenti aventi la medesima legge di Bernoulli B(p). Un processo di Bernoulli pu essere considerato come una sequenza infinita di lanci di una moneta (non truccata). Ogni singolo lancio detto prova di Bernoulli. In particolare, essendo le variabili indipendenti, vale la mancanza di memoria: la probabilit di una prova di Bernoulli non influenzata dal risultato delle precedenti (che quindi non possono fornire alcuna informazione sulla nuova prova).
Variabili aleatorie
Ogni singola variabile aleatoria Xi pu fornire due soli risultati: il successo (1) o il fallimento (0), con rispettive probabilit p e q=1-p:
Il numero di successi dopo n prove dato dalla variabile aleatoria , che segue la legge binomiale B(p,n), con probabilit
Processo di Bernoulli pari al numero di sequenze di k successi e n-k fallimenti, moltiplicato per la probabilit che una qualunque di queste si verifichi. Il numero di lanci necessari per ottenere un successo dato da una variabile aleatoria N che segue la legge geometrica di rapporto q: . Pi in generale, il numero di lanci necessari per ottenere k successi dato da una variabile aleatoria Nk di legge ; in particolare, il numero di fallimenti dato dalla variabile aleatoria Pk = Nk-n, di legge di Pascal (o binomiale negativa) P(p,k) .
28
Applicazioni
In statistica un processo di Bernoulli (a tempo finito) viene utilizzato come modello per il campione di una popolazione della quale si vuole determinare la proporzione p che verifica una certa propriet. Ogni processo di Bernoulli (con p qualunque) pu venire utilizzato per originare, tramite l'estrazione di Von Neumann, un nuovo processo di Bernoulli le cui prove seguono la legge B(1/2). Questo metodo particolarmente utilizzato nella teoria della complessit computazionale e prevede di raggruppare le originali prove di Bernoulli a coppie successive; se i due elementi sono diversi si prende il valore del primo, mentre se sono uguali la coppia viene scartata, come ad esempio:
11 10 11 01 01 01 00 11 01 01 01 01 01 10 10 11 00 10 10 10 11 01 01 00 10 10 1 0 0 0 0 0 0 0 0 1 1 1 1 1 0 0 1 1
Questo metodo sfrutta l'uguaglianza delle probabilit ; e siccome 2pq al pi 1/2, la lunghezza della stringa finale risulta mediamente essere lunga non pi di un quarto della stinga iniziale.
Funzione di Bernoulli
Un processo di Bernoulli pu essere interpretato come una misura sullo spazio di Morse delle successioni di 0 e 1, o sull'intervallo [0,1] dei numeri reali in base binaria (la successione la loro espressione decimale). In particolare, per p=1/2 si ottiene una misura uniforme. Poich ogni prova ha uno o due possibili risultati, una sequenza di tentativi pu essere rappresentata dalle cifre binarie di un numero reale. Quado la probabilit p = 1/2, tutte le possibili distribuzioni sono ugualmente verosimili, , e quindi la misura della -algebra del processo di Bernoulli equivalente alla misura uniforme nell'intervallo unitario: in altre parole, i numeri reali sono uniformemente distribuiti sull'intervallo unitario. L'operatore Bernoulli, ( di shift che mangia la prima cifra, mandando ogni cifra nella precedente ( ) equivale quindi alla moltiplicazione per 2 modulo 1, o funzione di , dove {2} la parte frazionaria di 2).
La mappa di Bernoulli un modello esattamente risolubile di caos deterministico. L'operatore di trasferimento, o operatore di Rouelle, di quest'applicazione risolubile: i suoi autovalori sono potenze di 1/2 e le sue autofunzioni
29
Generalizzazioni
La generalizzazione del processo di Bernoulli nel caso multinomiale (pi di due possibili risultati) chiamata schema di Bernoulli.
Bibliografia
Carl W. Helstrom, Probability and Stochastic Processes for Engineers, (1984) Macmillan Publishing Company, New York ISBN 0-02-353560-1. Dimitri P. Bertsekas and John N. Tsitsiklis, Introduction to Probability, (2002) Athena Scientific, Massachusetts ISBN 1-886529-40-X Pierre Gaspard, "r-adic one-dimensional maps and the Euler summation formula", Journal of Physics A, 25 (letter) L483-L485 (1992). (Describes the eigenfunctions of the transfer operator for the Bernoulli map) Dean J. Driebe, Fully Chaotic Maps and Broken Time Symmetry, (1999) Kluwer Academic Publishers, Dordrecht Netherlands ISBN 0-7923-5564-4 (Chapters 2, 3 and 4 review the Ruelle resonances and subdynamics formalism for solving the Bernoulli map).
Voci correlate
Processo aleatorio Variabile casuale di Bernoulli Variabile aleatoria binomiale Variabile casuale geometrica Variabili indipendenti processo di Levy
Distribuzione binomiale
30
Distribuzione binomiale
Distribuzione binomiale Funzione di distribuzione discreta
Funzione di ripartizione
Parametri
Supporto Funzione di densit Funzione di ripartizione (funzione Beta incompleta regolarizzata) Valore atteso Mediana tra e (non precisa) Moda Varianza Skewness Curtosi se
Distribuzione binomiale
31
Entropia Funz. Gen. dei Momenti Funz. Caratteristica
In teoria della probabilit la distribuzione binomiale una distribuzione di probabilit discreta che descrive il numero di successi in un processo di Bernoulli, ovvero la variabile aleatoria che somma n variabili aleatorie indipendenti di uguale distribuzione di Bernoulli B(p). Esempi di casi di distribuzione binomiale sono i risultati di una serie di lanci di una stessa moneta o di una serie di estrazioni da un'urna (con reintroduzione), ognuna delle quali pu fornire due soli risultati: il successo con probabilit p e il fallimento con probabilit q=1-p.
Definizione
La distribuzione binomiale caratterizzata da due parametri: : la probabilit di successo della singola prova di Bernoulli Xi (0 < p < 1). : il numero di prove effettuate. , che esprime la probabilit
Per semplicit di notazione viene solitamente utilizzato anche il parametro di fallimento per una singola prova. La distribuzione di probabilit :
successioni, pari al numero di modi (o combinazioni) in cui possono essere disposti i k successi negli n tentativi, dato dal coefficiente binomiale . La formula del binomio di Newton mostra come la somma di tutte le probabilit nella distribuzione sia uguale ad 1:
Esempio
Per calcolare la probabilit di ottenere con 5 lanci di un dado (equilibrato a 6 facce) esattamente 3 volte "4", basta considerare i lanci come un processo di Bernoulli. Ogni singola prova ha probabilit p=1/6 di ottenere "4" (successo) e probabilit q=5/6 di non ottenerlo (insuccesso). Il numero di successi con 5 prove allora descritto da una variabile aleatoria S5 di legge B(5,1/6). La probabilit di ottenere esattamente 3 volte "4" con 5 lanci (e 2 volte "non 4")
Distribuzione binomiale
32
Caratteristiche
Siccome la distribuzione binomiale B(n,p) descrive una variabile aleatoria Sn definita come la somma di n variabili aleatorie indipendenti Xi di uguale legge di Bernoulli B(p), molte caratteristiche di Sn possono essere ricavate da quelle di X: il valore atteso
la varianza
la funzione caratteristica
il coefficiente di skewness
il coefficiente di curtosi
. Se
allora la moda pari alla sua parte intera Non esistono formule precise per la mediana di superiore di , e . Se assume il valore (ad esempio
, che tuttavia dev'essere compresa tra le parti intere inferiore e . Se la funzione di ripartizione dispari) allora tutti i valori per ed
Convergenze
Per valori di n sufficientemente grandi la legge binomiale approssimata da altre leggi. Quando n tende a infinito, lasciando fisso =np, la distribuzione binomiale tende alla distribuzione di Poisson P()=P(np). In statistica quest'approssimazione viene solitamente accettata quando n 20 e p 1/20, oppure quando n 100 e np 10.
Distribuzione binomiale Per il teorema del limite centrale, quando n tende a infinito, lasciando fisso p, la distribuzione binomiale tende alla distribuzione normale N(np,npq), di speranza np e varianza npq. In statistica quest'approssimazione viene solitamente accettata quando np>5 e nq>5. Pi precisamente, il teorema del limite centrale afferma che
33
Generalizzazioni
Una generalizzazione della distribuzione binomiale che descrive la somma distribuzione di Bernoulli , dove P segue la legge Beta la legge distribuzione Beta-binomiale , di n variabili aleatorie indipendenti, ognuna con . (Al contrario della distribuzione binomiale,
le Xi non hanno lo stesso parametro.) La distribuzione binomiale una delle quattro distribuzioni di probabilit definite dalla ricorsione di Panjer: .
Statistica
Nell'inferenza bayesiana si utilizzano particolari relazioni tra la distribuzione binomiale e altre distribuzioni di probabilit. Se P una variabile aleatoria che segue la distribuzione Beta distribuzione binomiale e Sn una variabile aleatoria con
, allora la probabilit condizionata da Sn=x per P segue la distribuzione Beta . In altri termini, la distribuzione Beta descrive P sia a priori che a posteriori di Sn=x.
In particolare la distribuzione continua uniforme sull'intervallo [0,1] un caso particolare di distribuzione Beta , quindi la distribuzione per P, a posteriori di Sn=x, segue la legge Beta inciso ha un massimo in x/n. , che per
Voci correlate
Processo di Bernoulli Distribuzione di Bernoulli Distribuzione normale Distribuzione di Poisson
Distribuzione geometrica
34
Distribuzione geometrica
Distribuzione geometrica Funzione di distribuzione discreta
Funzione di ripartizione
Parametri Supporto Funzione di densit Funzione di ripartizione Valore atteso Mediana Moda Varianza Skewness Curtosi Entropia Funz. Gen. dei Momenti Funz. Caratteristica se
In teoria della probabilit la distribuzione geometrica una distribuzione di probabilit discreta sui numeri naturali (con l'elemento "0") che segue una progressione geometrica:
E' la probabilit che il primo successo (o evento in generale) richieda l' eseguzione di k prove indipendenti, ognuna di probabilit di successo p. Se la probabilit di successo di ogni prova p, allora la probabilit che alla kesima prova (dopo k prove) si ottenga il successo
Distribuzione geometrica
35
con k = 1, 2, 3, .... La formula qui sopra usata per modellizzare il numero di tentativi fino ad ottenere il primo successo. Qui sotto invece si cerca il numero di successi fino al prim fallimento:
Definizione
La distribuzione geometrica , con dove q indica la probabilit di insuccesso. Il parametro . A volte lo zero viene escluso dal supporto: se T ha distribuzione geometrica sopra descritta, la distribuzione di X =T+1 sar e le altre funzioni saranno modificate di conseguenza. Nell'esempio citato sopra, X sarebbe il numero di estrazioni da fare perch esca un numero fissato. si ricava da la distribuzione di probabilit sui numeri naturali della forma
Processo di Bernoulli
La distribuzione geometrica di parametro q descrive anche il numero T di fallimenti che precedono il primo successo in un processo di Bernoulli di parametro p=1-q:
Caratteristiche
Una variabile aleatoria T con distribuzione geometrica di parametro q e avente come supporto i numeri naturali incluso il numero 0 ha funzione di probabilit
funzione di ripartizione
valore atteso
varianza
funzione generatrice dei momenti funzione caratteristica I quantili si ricavano dalla funzione di ripartizione: se un numero intero ( ) allora e
Distribuzione geometrica se invece In particolare la mediana se altrimenti. con intero, non intero, allora (parte intera).
36
Assenza di memoria
La distribuzione geometrica priva di memoria, ovvero
ed l'unica distribuzione di probabilit discreta con questa propriet. L'indipendenza delle prove in un processo di Bernoulli implica l'assenza di memoria della distribuzione geometrica. D'altro canto, ogni variabile aleatoria T a supporto sui numeri naturali e priva di memoria rispetta
Generalizzazioni
Una generalizzazione della distribuzione geometrica la distribuzione di Pascal (o distribuzione binomiale negativa), che descrive il numero di fallimenti precedenti il successo r-esimo in un processo di Bernoulli. Un'ulteriore generalizzazione della distribuzione di Pascal la distribuzione di Panjer che, come la distribuzione geometrica, definisce le probabilit per ricorsione.
Esempi
La probabilit che un dado (equilibrato, a 6 facce) debba venire lanciato esattamente 10 volte prima di fornire un "4" data dalla distribuzione geometrica. Il lancio del dado pu essere considerato un processo di Bernoulli, in cui ogni prova Xi ha probabilit p=1/6 di fornire "4" (successo) e q=5/6 di fornire un altro numero (fallimento). La probabilit cercata quindi
La probabilit che al decimo lancio si ottenga un "4" dopo che per 9 lanci questo numero non mai stato ottenuto facilmente calcolabile grazie alla mancanza di memoria
Distribuzione geometrica
37
Voci correlate
Distribuzione di Bernoulli Distribuzione di Panjer Distribuzione di Pascal Distribuzione di probabilit Mancanza di memoria Processo di Bernoulli Variabile aleatoria
Distribuzione ipergeometrica
Distribuzione ipergeometrica Funzione di distribuzione discreta Funzione di ripartizione Parametri Supporto Funzione di densit
Funzione di ripartizione Valore atteso Mediana Moda Varianza Skewness Curtosi Entropia Funz. Gen. dei Momenti Funz. Caratteristica
In teoria delle probabilit la distribuzione ipergeometrica una distribuzione di probabilit discreta che descrive l'estrazione senza reinserimento di alcune palline, perdenti o vincenti, da un'urna. L'estrazione con reinserimento (la pallina estratta viene rimessa nell'urna) viene invece descritta dalla distribuzione binomiale. Ad esempio, estraendo 5 palline da un'urna che ne contiene 3 bianche e 7 nere, il numero di palline bianche estratte descritto dalla distribuzione ipergeometrica.
Distribuzione ipergeometrica
38
Definizione
La distribuzione ipergeometrica descrive la variabile aleatoria che conta, per r elementi distinti estratti a caso (in modo equiprobabile) da un insieme A di cardinalit n, quanti sono nel sottoinsieme B di cardinalit h. In termini pi concreti descrive, data un'urna contenente h palline bianche e n-h palline nere, il numero di palline bianche che vengono ottenute estraendo senza reinserimento r palline. La probabilit di ottenere esattamente k elementi in B . Questa probabilit, espressa tramite i coefficienti binomiali combinatorio: il numero di possibili estrazioni di r elementi da A, il numero di possibili estrazioni di k elementi tra gli h di B, il numero di possibili estrazioni dei restanti r-k elementi tra gli n-h non in B. , si pu ricavare tramite il calcolo
Definizione alternativa
Una definizione equivalente considera gli elementi estratti come un sottoinsieme C di A. In questo modo la cardinalit dell'intersezione di due insiemi B e C, scelti a caso (con distribuzione uniforme) tra i sottoinsiemi di A con cardinalit fissate, descritta dalla distribuzione ipergeometrica .
Propriet
Cardinalit delle intersezioni
B C k A-B r-k A r
La formula per la probabilit presenta varie simmetrie, che si possono ricavare scambiando i ruoli che svolgono i quattro insiemi vincenti (B), non vincenti (A-B), estratti (C) e non estratti (A-C). In particolare scambiando vincenti con estratti
Distribuzione ipergeometrica
39
Caratteristiche
Senza bisogno di fare calcoli con i coefficienti binomiali, la speranza matematica di N si pu ottenere considerando per ogni elemento b di B la variabile aleatoria che vale 1 se b viene estratto e 0 altrimenti. In questo modo si ha , dove ogni distribuzione binomiale, le variabili . possibile procedere nella stessa maniera per calcolare la varianza di N tramite la varianza e la covarianza delle : ; in particolare, i fattori che compaiono al numeratore sono le cardinalit dei quattro insiemi "estratti", "non estratti", "vincenti" e "non vincenti". segue la distribuzione di Bernoulli ; anche se, a differenza della non sono indipendenti tra di loro, per la linearit della speranza si ottiene
Altre distribuzioni
Per una singola estrazione la distribuzione ipergeometrica . A differenza della distribuzione ipergeometrica, la distribuzione binomiale corrisponde ad un processo in cui dopo ogni estrazione la pallina viene reintrodotta nell'urna, lasciando invariata la probabilit di estrarre in seguito una pallina vincente. Per valori di n e h molto grandi rispetto a r, e per h/n non vicino a 0 n a 1, ad ogni estrazione le probabilit restano quasi uguali. In statistica (ad esempio nei sondaggi) questa approssimazione viene accettata per . La distribuzione ipergeometrica pu essere generalizzata considerando differenti le probabilit di estrarre le singole palline, ovvero utilizzando una distribuzione non uniforme sull'insieme A. Un'altra generalizzazione della distribuzione ipergeometrica la distribuzione ipergeometrica multivariata, che prevede che nell'urna siano presenti palline di pi di due colori, ovvero in cui l'insieme A non pi partizionato nei soli due insiemi B e A-B, ma in (insiemi disgiunti la cui unione A). La distribuzione non descrive pi la probabilit che k elementi siano in B e r-k in A-B, bens la probabilit che k1 siano in B1, k2 in B2, e cos via, per ogni con : . Questa distribuzione di probabilit si rapporta alla distribuzione multinomiale esattamente come la distribuzione ipergeometrica si rapporta alla distribuzione binomiale. coincide con la distribuzione di Bernoulli
Esempio
Un esempio di distribuzione ipergeometrica dato dal gioco d'azzardo win for Life, in cui su un totale di n=20 numeri disponibili h=10 vengono scelti dal giocatore e r=10 vengono estratti. La probabilit di indovinarne k governata dalla distribuzione ipergeometrica , . In particolare si possono calcolare facilmente le probabilit di vincita, proporzionali ai quadrati dei coefficienti binomiali ; ad esempio la probabilit che vengano estratti esattamente 6 (oppure 4) degli elementi scelti
Distribuzione ipergeometrica
40
Voci correlate
Coefficiente binomiale Distribuzione binomiale Distribuzione discreta uniforme
Distribuzione di Pascal
Distribuzione di Pascal, o binomiale negativa Funzione di distribuzione discreta
Funzione di ripartizione Parametri oppure Supporto Funzione di densit Funzione di ripartizione funzione Beta incompleta regolarizzata Valore atteso Mediana Moda Varianza Skewness Curtosi Entropia Funz. Gen. dei Momenti Funz. Caratteristica
Distribuzione di Pascal In teoria delle probabilit la distribuzione di Pascal una distribuzione di probabilit discreta con due parametri, ed , che descrive il numero di fallimenti precedenti il successo n-esimo in un processo di Bernoulli di parametro p. A volte si considera la distribuzione di Pascal come quella distribuzione che descrive il numero di prove necessarie per ottenere n successi. Questa distribuzione equivalente alla precedente ma riscalata, ovvero descrive una variabile aleatoria anzich . Ad esempio, lanciando una moneta fino ad ottenere 3 volte testa, la distribuzione di Pascal descrive le probabilit per il numero di risultati croce visti nel frattempo. La distribuzione prende il nome dal matematico francese Blaise Pascal. Questa distribuzione di probabilit pu essere generalizzata sostituendo il numero naturale n con un numero reale positivo r. In questo caso viene detta anche distribuzione binomiale negativa (per la sua particolare formula) o di Polya (dal matematico ungherese George Polya).
41
Definizione
Dato un processo di Bernoulli, ovvero una serie di variabili aleatorie indipendenti distribuzione di Bernoulli , la distribuzione di Pascal descrive la variable aleatoria il numero di fallimenti precedenti il successo numero , . La probabilit di fallimento di una singola prova . La probabilit che si verifichino esattamente k fallimenti prima di ottenere un totale di n successi data dalla probabilit di ottenere un successo nella prova numero k+n ( ) e di ottenere esattamente k fallimenti e n-1 successi nelle prove precedenti, ovvero , dove il coefficiente binomiale conta il numero di possibili disposizioni di successi e fallimenti. Questa probabilit pu anche essere scritta nella forma binomiale negativa , dove si considera la generalizzazione del coefficiente binomiale . di uguale che conta
Definizioni alternative
Sostituendo il numero naturale n con il numero reale positivo r la formula mantiene un significato, anche se il coefficiente binomiale pu essere espresso tramite la funzione Gamma, che estende il concetto di fattoriale ( ): . Alcuni testi definiscono la distribuzione di Pascal come quella che descrive il numero di prove fino al successo n-esimo, ed altri scambiano i termini successo ed insuccesso nella definizione. Per collegare queste definizioni basta rispettivamente considerare la variabile aleatoria al posto di nel primo caso e scambiare i valori di p e q nell'altro.
Distribuzione di Pascal
42
Distribuzione geometrica
Una variabile aleatoria con distribuzione di Pascal pari alla somma di n variabili la : e il successo numero aleatorie indipendenti con uguale distribuzione geometrica . Questo si pu vedere considerando come
variabile aleatoria che conta il numero di fallimenti intercorsi tra il successo numero
le sono allora indipendenti ed hanno distribuzione geometrica di parametro q. In particolare, la distribuzione di Pascal coincide con la distribuzione geometrica
, e la somma di
m variabili aleatorie indipendenti con distribuzioni di Pascal aventi lo stesso parametro p segue ancora la distribuzione di Pascal con parametro p ( sempre somma di variabili aleatorie indipendenti con uguale distribuzione geometrica).
Caratteristiche
Alcune caratteristiche di una variabile aleatoria Tn che segue la distribuzione di Pascal ricavare dalle caratteristiche di una variabile aleatoria T con distribuzione geometrica il valore atteso , la varianza , la funzione generatrice dei momenti , gli indici di simmetria e di curtosi . La funzione di ripartizione pu essere definita tramite la funzione Beta incompleta regolarizzata: : si possono
Tutte le formule valgono ancora anche sostituendo il numero naturale n con il numero reale positivo r.
Altre distribuzioni
La distribuzione di Pascal una mistura della distribuzione Gamma e della distribuzione di Poisson: una variabile aleatoria con distribuzione di Poisson , il cui parametro L segua una distribuzione Gamma, segue la distribuzione di Pascal. La distribuzione di Pascal , di speranza , converge alla distribuzione di Poisson .
La distribuzione di Pascal si trova anche come mistura della distribuzione di Poisson e della distribuzione logaritmica, ovvero descrive la somma di un numero , che segue la distribuzione di Poisson, di variabili aleatorie indipendenti che seguono una stessa distribuzione logaritmica. Considerando le variabili aleatorie aleatorie si trova la formula , di distribuzione binomiale di distribuzione e le variabili di Pascal
Distribuzione di Pascal che esprime per un processo di Bernoulli l'equivalenza degli eventi "ottenere meno di k insuccessi prima del successo n-esimo" e "ottenere almeno n successi nelle prime n+k prove". La distribuzione di Panjer, che definisce i valori per ricorsione, generalizza la distribuzione di Pascal:
43
Statistica
La distribuzione di Pascal viene talvolta utilizzata in alternativa alla distribuzione di Poisson, a cui converge in legge sotto la condizione , nei casi in cui il modello empirico presenti una varianza maggiore del valore medio: la distribuzione di Poisson ha sempre speranza pari al valore medio, mentre la distribuzione di Pascal pi dispersa (ha una varianza maggiore). Come spesso avviene nell'inferenza bayesiana, se il parametro p di una distribuzione di Pascal segue a priori la distribuzione Beta, allora la segue anche a posteriori.
Voci correlate
Coefficiente binomiale Convergenza in distribuzione Distribuzione geometrica Distribuzione di Poisson Mistura di distribuzioni Processo di Bernoulli
44
Mangia&Bevi
Variabili dipendenti e indipendenti
In matematica una variabile dipendente da altre variabili se esiste una relazione tra di esse che la coinvolge, altrimenti indipendente da esse. Due o pi variabili indipendenti l'una dall'altra sono dette variabili indipendenti. In assenza di una relazione, le variabili sono solitamente supposte indipendenti. Ad esempio, le coordinate (x,y) dei punti nel piano sono variabili indipendenti, mentre le coordinate dei punti su una circonferenza di raggio r sono variabili dipendenti: x2+y2=r2 (alcuni valori che possono essere scelti singolarmente per le due variabili non possono essere presi contemporaneamente). In teoria delle probabilit due variabili aleatorie X e Y sono indipendenti quando lo sono le loro funzioni di probabilit, quindi se la loro probabilit congiunta sempre pari al prodotto delle singole probabilit:
In statistica talvolta la denominazione non cos precisa ma viene, per comodit d'uso, associata all'ordine con cui si considerano le variabili: ognuna viene detta dipendente o indipendente rispetto alle sole variabili precedenti (la prima automaticamente indipendente). In particolare, per due variabili dipendenti X e Y (come l'et e il titolo di studio) possibile scegliere quale considerare indipendente e quale dipendente. In base al contesto si usano come sinonimi per una variabile indipendente: regressore, predittore, controllata, manipolata o di input; per una variabile dipendente: di risposta, misurata, spiegata, sperimentale o di output.
Voci correlate
Teorema della probabilit composta Variabile (matematica)
Valore atteso
45
Valore atteso
In teoria della probabilit il valore atteso (chiamato anche media, speranza o speranza matematica) di una variabile casuale , un numero indicato con (da expected value o expectation in inglese o dal francese esprance) che formalizza l'idea euristica di valore medio di un fenomeno aleatorio. In generale il valore atteso di una variabile casuale discreta (che assuma cio solo un numero finito o una infinit numerabile di valori) dato dalla somma dei possibili valori di tale variabile, ciascuno moltiplicato per la probabilit di essere assunto (ossia di verificarsi), cio la media ponderata dei possibili risultati. Per una variabile casuale continua la questione pi delicata e si deve ricorrere alla teoria della misura e all'integrale di Lebesgue-Stieltjes. Ad esempio nel gioco testa o croce, se scegliamo "testa" e ipotizziamo un valore di 100 per la vittoria (testa) e di zero per la sconfitta (croce), il valore atteso del gioco 50, ovvero la media delle vincite e perdite pesata in base alle probabilit (50% per entrambi i casi): , cio il valore di "testa" per la sua probabilit e il valore di "croce" per la sua probabilit.
Definizione matematica
Sia valore atteso di uno spazio di probabilit, ed semplicemente l'integrale di . una variabile aleatoria a valori reali su tale spazio (ossia una rispetto alla misura di probabilit : funzione misurabile , dove i numeri si intendono equipaggiati con la loro -algebra boreliana). Il
Valore atteso
46
Propriet
Media di una costante
La media di una costante c (cio di una variabile casuale che assume il valore c con probabilit 1) ovviamente la costante stessa: E[c]=c.
Linearit
Un'importante caratteristica del valore atteso la sua linearit: ovvero per ogni variabile casuale X e coppia di numeri reali a e b si ha
Questa propriet facilmente dimostrabile: ad esempio, nel caso di una variabile casuale discreta, si ha
perch la somma delle probabilit 1, in quanto consideriamo la somma di tutti i possibili eventi. Questa propriet ha la conseguenza importante che date due variabili casuali qualsiasi X e Y (non necessariamente indipendenti) si ha
Questa propriet non vale per il prodotto: in generale, E[XY] diverso da E[X]E[Y]. Quando queste due quantit sono uguali, si dice che X e Y sono non correlate. In particolare, due variabili casuali indipendenti sono non correlate.
Monotonia
Se i valori che assume una variabile casuale X sono compresi tra due estremi a e b, cos sar la media di X; infatti e allo stesso modo si dimostra nel caso continuo. Da questo si deduce che se due variabili casuali verificano (ovvero, per ogni evento E, il valore di X in
Valore atteso
47
giocati. ambo (si punta sull'uscita di un determinata coppia di numeri; la vincita paga 250 volte la posta): vi sono possibili coppie di numeri. Poich sulla ruota vengono estratti 5 numeri, gli ambi estratti sono e pertanto il giocatore vincer con probabilit 10/4005, ed in tal caso egli guadagner euro; la probabilit di perdita 3995/4005, ed in tal caso il giocatore perder i 10 euro di puntata. Il guadagno medio sar quindi . Ossia, in media il
giocatore perder euro per ogni 10 euro giocati. terno (si punta sull'uscita di un determinata terna di numeri; la vincita paga 4500 volte la posta): Ci sono 117480 possibili terne distinte di numeri. quaterna (si punta sull'uscita di un determinata quaterna di numeri; la vincita paga 120000 volte la posta): Ci sono 2555190 possibili quaterne distinte di numeri. cinquina (si punta sull'uscita di un determinata cinquina di numeri; la vincita paga 6 milioni di volte la posta): Ci sono 43949268 possibili cinquine distinte di numeri. La tabella seguente mostra un riepilogo delle perdite medie per una giocata di importo pari a 1 euro.
Probabilit di vincita Quote di Vincita per 1 euro giocato Perdita media in centesimi Ambo Terna 1/(400.5) 1/(11748) 250 4500 120000 6 milioni 37.6 61.7 76.5 86.3
Bibliografia
Giorgio Dall'Aglio, Calcolo delle probabilit, Zanichelli, Bologna, 2003 Probabilit e lotto [1]
Voci correlate
Teoria della probabilit Media Funzione generatrice dei momenti Funzione di densit Funzione di ripartizione Valore atteso condizionato
Valore atteso
48
Note
[1] http:/ / www. unipa. it/ ~sanfilippo/ pub/ sigad/ lotto. pdf
Varianza
Nella teoria della probabilit e in statistica la varianza di una variabile aleatoria x (e della distribuzione di probabilit che questa segue) una funzione indicata con 2(x), che fornisce una misura di quanto siano vari i valori assunti dalla variabile, ovvero di quanto si discostino dal valore atteso .
Definizione
La varianza di x definita come il valore atteso del quadrato della variabile aleatoria centrata
In statistica viene spesso preferita la radice quadrata della varianza di x, lo scarto tipo (o scarto quadratico medio) indicato con la lettera . Per questo motivo talvolta la varianza viene indicata con 2. Un esempio di "misura" dello scostamento di una variabile aleatoria dalla media dato dalla disuguaglianza di ebyv che controlla questo scostamento in termini dello scarto tipo:
Propriet
La varianza di una variabile aleatoria non mai negativa, ed zero solamente quando la variabile assume quasi certamente un solo valore, P(x=x)=1. Una formula alternativa per la varianza
Linearit
La varianza invariante per traslazione, che lascia fisse le distanze dalla media, e cambia quadraticamente per riscalamento:
La varianza della somma di due variabili indipendenti pari alla somma delle loro varianze
Usande le due precedenti affermazioni, possiamo dire che la varianza della differenza di due variabili indipendenti pari alla somma delle loro varianze
Se x e y non sono indipendenti, la formula viene corretta dalla loro covarianza, , dove
Varianza
49
La varianza di una variabile aleatoria continua x a valori in un insieme X si calcola attraverso la sua densit di probabilit:
Statistica
In statistica viene utilizzata pi spesso della varianza la sua radice quadrata, vale a dire lo scarto quadratico medio anche detto deviazione standard. Con riferimento a questa notazione la varianza si trova quindi anche indicata come .
Stimatori
In statistica si utilizzano solitamente due stimatori per la varianza su un campione di cardinalit n: e (anche chiamati varianza campionaria) dove , lo stimatore per la media. .
Lo stimatore Sn-1 privo di bias, ovvero il suo valore atteso proprio la varianza
Al contrario, lo stimatore Sn ha un valore atteso diverso dalla varianza, . Una giustificazione del termine n-1 data dalla necessit di stimare anche la media. Se la media nota, lo stimatore Sn diventa corretto. Questa detta "Correzione di Bessel".
Varianza
50
In contrasto con,
Se le xi seguono la legge normale N(,), lo stimatore S2n-1 segue una legge del 2
Varianza osservata
Come per gli stimatori, esistono due diverse varianze osservate sui dati di un campione osservata , e In particolare, . di media
Esempi
Una variabile aleatoria x di legge di Bernoulli B(p), ovvero che ha probabilit p di fornire "1" e probabilit q=1-p di fornire "0", ha valore medio ; la sua varianza pu essere calcolata come
Varianza
51
Voci correlate
Covarianza Legge della varianza totale Scarto quadratico medio Valore atteso Variabili indipendenti
52
Pignoni
Serie geometrica
Una serie geometrica una serie tale per cui il rapporto tra due termini successivi costante.
Definizione
La serie geometrica una serie del tipo successione delle somme parziali . In modo equivalente, pu essere definita come il limite della , in cui:
che va da zero ad
di
. Il
rapporto di ogni termine della somma rispetto al termine precedente costantemente uguale a della serie.
ed detto ragione
Questo tipo di serie ricorre con una particolare frequenza nell'analisi degli algoritmi; in molti casi il valore di questi ultimi pu essere calcolato direttamente con le formule che vengono presentate in questo articolo. Una delle espressioni pi comuni proprio la somma parziale della nota serie geometrica.
Formule
Possiamo trovare una formula pi semplice per questa somma moltiplicando entrambi i membri della precedente equazione per . Vediamo che i termini del polinomio da 1 a si semplificano con i corrispondenti della sommatoria:
Spostando il termine
Derivando la somma rispetto a x si possono trovare formule per somme del tipo
ad esempio:
Un altro modo semplicemente algebrico per arrivare alla somma da 0 ad n consiste nel partire da: quindi sottrarre 1 e dividere tutto per x ambo i membri
Serie geometrica
53
poich
facendo tutti i passaggi algebrici, da quest'ultima equazione, otteniamo: con un ultimo passaggio possibile dimostrare che la somma che stavamo cercando. si ottiene , ovvero che la
pertanto la base induttiva verificata. Supponiamo che la formula sia vera per somma dei primi termini valga proprio , allora la somma dei primi
termini vale
Pertanto la formula, supposta vera per i primi dimostrato per induzione matematica che
, se
questo caso, il carattere divergente, intendendo che o, in altri termini, che indeterminata nel caso , poich la funzione somma oscilla tra 1 e 0. convergente quando Se infatti la somma della serie esiste e vale .
Quest'ultima formula valida in ogni algebra di Banach con la condizione che la norma di x sia minore di uno, e anche nel campo dei numeri p-adici se |x|p < 1. In particolare valida nel campo dei numeri complessi con l'usuale definizione di valore assoluto. Come nel caso delle somme finite, possiamo derivare la serie per trovare le formule di somme analoghe. Ad esempio:
Serie geometrica
54
otteniamo che
viene chiamata serie geometrica troncata. La serie geometrica troncata alla base delle stime di somme molto complesse. Utilizzando l'operatore per si intende la derivata) si ha che (dove
riconducensi alla serie geometrica troncata. Stima della somma parziale per i = 1 Si consideri la somma delle potenze di grado 1:
Esempi
Si vuole valutare la seguente sommatoria: . Consideriamo la funzione
in 2. Poich
Serie geometrica
55
e di conseguenza
Bibliografia
Giulio Barozzi, Primo corso di analisi matematica, Zanichelli Editore, ISBN 8808011690
Voci correlate
Serie Serie esponenziale Serie armonica Serie di Mengoli Progressione geometrica
Teorema binomiale
In algebra il teorema binomiale (o anche formula di Newton, binomio di Newton e sviluppo binomiale) esprime lo sviluppo della potenza n-esima di un binomio qualsiasi con la formula seguente:
in cui il fattore
peraltro gli stessi che si trovano nel noto triangolo di Tartaglia. Lo sviluppo vale per ogni coppia di numeri reali o complessi, ma pi in generale vale in ogni anello commutativo. Come esempio di applicazione della formula, riportiamo i casi piccoli, n=2, n=3 ed n=4:
Nel caso in cui n sia un numero reale o complesso, la somma finita sostituito da una serie infinita. Questa formula generalizzata, nel caso di n reale positivo, fu realizzata da Isaac Newton (da cui il nome).
Esposizione
possibile, secondo il teorema, espandere una qualunque potenza intera di (a+b) in una sommatoria nella forma
dove
essere scritta:
Teorema binomiale
56
Una variante di questa formula binomiale pu essere ottenuta sostituendo 1 ad "a" e "a" a "b", considerando quindi una sola variabile. In questa forma, si ha:
o, in maniera equivalente,
e provare con il passo induttivo la veridicit del teorema per un esponente n qualsiasi. Infatti presa per corretta l'espressione
+1, si ha
si ha
da cui, essendo
ed inoltre
si ha che, utilizzando nel primo passaggio una nota propriet del coefficiente binomiale
Teorema binomiale
57
essendo infine
si ha che
e si ottiene l'espressione formale dello sviluppo della potenza successiva del binomio
con n fattori, evidente che il numero delle volte in cui compare nello sviluppo il termine di combinazioni che si possono ottenere prendendo che dato proprio da . volte e volte
Poich per la propriet distributiva il prodotto dato dalla somma di questi termini al variare di subito la tesi.
da
, si ha
dove
Teorema binomiale
58
Dimostrazione
Lo sviluppo attorno all'origine della funzione
e, poich
si ottiene
che la formula di cui sopra. Troncando la serie al k-esimo termine, l'errore che si ottiene un infinitesimo di ordine .
Voci correlate
Trinomio di Newton Teorema multinomiale Coefficiente binomiale
Triangolo di Tartaglia
59
Triangolo di Tartaglia
Il Triangolo di Tartaglia (detto anche triangolo di Pascal o Khayym o Yanghui[2]) una disposizione geometrica a forma di triangolo dei coefficienti binomiali, ossia dei coefficienti dello sviluppo del binomio (a+b) elevato ad una qualsiasi potenza n.
Costruzione
Le prime righe del Triangolo di Tartaglia sono le seguenti:
Prime cinque righe del triangolo
Triangolo di Tartaglia disegnato dal matematico [1] cinese Zhu Shijie nel 1303
Triangolo di Tartaglia
1 1 1 1 14 13 91 12 78 364 11 66 286 55 220 715 1001 165 495 2002 330 792 1287 3003 462 924 1716 3432 462 792 1716 3003 330 495 1287 715 2002 165 220 286 1001 364 55 66 78 91 11 12 13 14 1 1 1 1
60
In ciascuna riga si pu osservare che gli elementi di questa costruzione si ottengono come somma di due elementi adiacenti della riga precedente. Ossia, se k e n sono interi positivi, e k minore o uguale a n:
Dunque, la potenza del binomio pu essere scritta anche con la formula seguente, che dobbiamo a Newton ed comunemente indicata come formula del binomio di Newton: .
Triangolo di Tartaglia
61
Formalismo matriciale
Con i classici indici del formalismo matriciale, il triangolo pu essere costruito nel seguente modo. introdotti due indici e per denotare gli indici riga e colonna, possiamo scrivere: riga 1: riga 2: riga 3: riga 4: In generale, ; ; ; ; ; ; ; ; ; ; ; ; ; ; con e ,
. Tale formulazione del tutto equivalente a quella precedente e pi "classica" del coefficiente binomiale. Vengono solamente cambiati gli indici, riconducendosi al formalismo matriciale.
Propriet
Il triangolo ha molte altre numerose propriet, alcune dipendenti dal metodo di costruzione, altre dalle propriet dei coefficienti binomiali (le due cose sono legate tra loro).
Condizione al contorno
Essendo tutti i numeri lungo il contorno sono uguali a uno.
Formula ricorrente
nota la propriet dei binomiali per cui
Questo porta ad una formula ricorrente per calcolare un numero del triangolo: se voglio conoscere il numero alla riga al posto , basta sommare i due numeri della fila precedente allo stesso posto e al posto precedente, cio otteniamo proprio la formula di costruzione.
1 1 + 1 + 3 1 + 4 +
1 + 1 3 + 1 + 4 + 1
Triangolo di Tartaglia Cio la somma della -esima riga , si pu dimostrare molto facilmente osservando che la somma della prima
62
riga ovviamente 1, e data una riga, ogni numero della riga successiva si ottiene sommando i due numeri superiori e che ogni numero superiore viene utilizzato due volte, quindi , indicando con la somma della riga . Altra dimostrazione ancora pi semplice consiste nel ricordare che ogni riga contiene i coefficienti dello sviluppo delle potenze di un binomio, volendo prendere il binomio , il suo sviluppo consiste nei semplici coefficienti, quindi, per esempio , ed in generale .
La somma dei numeri in posto dispari (1, 3, 5,...) meno la somma dei numeri al posto pari (2, 4, 6,...) d zero. Per le righe con un numero pari di elementi, questo ovvio in quanto il triangolo simmetrico (vedi sopra). Per una dimostrazione generale ci affidiamo alla tecnica precedente prendendo come binomio (1-1), in questo modo otteniamo proprio la somma che cerchiamo, che non pu che fare 0. Un esempio: .
Potenze di undici
Le cifre che compongono le potenze di 11 si possono leggere immediatamente sul triangolo di Tartaglia: 1 1 1 1 1 4 3 6 2 3 4 1 1 1 1 = 1 = 11 = 121 = 1331 = 14641
4 riga
Il metodo per la dimostrazione sempre quello, prendendo il binomio 10+1; per esempio alla 4 riga si ottiene . importante notare, tuttavia, che dalla 5 riga in poi l'equivalenza con le potenze di 11 verificata solo se si tiene conto dei riporti, perdendo l'immediatezza dei risultati precedenti.
Triangolo di Tartaglia Sommando i numeri su una diagonale (1+3+6+10) otteniamo il numero adiacente al prossimo sulla diagonale (20). Questa un' identit molto utile nel campo della combinatoria, chiamata comunemente con il nome di "Identit della mazza da hockey"[3], per analogia con la forma assunta evidenziano gli addendi e il risultato in diagonale.
63
1 1
8/ 1 36/ 9 1 1 \10/ 45 \120 210 252 210 120/ 45 \10/ 1 1 11 55 165 \330 462 462 330/ 165 55 11 1 \12 66 220/ 495 \792 924 792/ 495 \220 66 12/ 1 13 \78 286/ 715 1287 \1716 1716/ 1287 715 \286 78/ 13
Numero di Catalan
I Numeri di Catalan si possono trovare in verticale partendo dal vertice, scendendo e dividendo per 1, 2, 3, 4 ... quindi sono 1/1, 2/2, 6/3, 20/4, 70/5 ... ovvero 1, 1, 2, 5, 14 ... 1 1 1 1 1 1 1 1 1 1 1 1 1 12 11 66 10 55 220 9 45 165 495 8 36 120 330 792 7 28 84 210 462 924 6 21 56 126 252 462 792 5 15 35 70 126 210 330 495 4 10 20 35 56 84 120 165 220 3 6 10 15 21 28 36 45 55 66 2 3 4 5 6 7 8 9 10 11 12 1 1 1 1 1 1 1 1 1 1 1 1
Triangolo di Tartaglia
64
Numeri di Fibonacci
I Numeri di Fibonacci possono essere trovati sommando le diagonali "storte", ottenute spostandosi ogni volta di una riga sotto e due numeri a sinistra. Esempio: oppure . Esiste anche un algoritmo per la determinazione dei coefficienti dei polinomi di Fibonacci. 1 1 1 1 1 1 1 1 1 1 1 10 9 45 8 36 120 7 28 84 210 6 21 56 126 252 5 15 35 70 126 210 4 10 20 35 56 84 120 3 6 10 15 21 28 36 45 2 3 4 5 6 7 8 9 10 1 1 1 1 1 1 1 1 1 1
462 462 330 165 55 11 1 792 924 792 495 220 66 12 1 1287 1716 1716 1287 715 286 78 13
Ogni numero nel triangolo di Tartaglia dunque identificato dalle coordinate n ed m. Vi una semplice relazione tra tutte le coppie di numeri adiacenti aventi posizione (n,m) ed (n+1,m1)
per esempio l'ottavo (8) numero tetraedrico (3-topico) moltiplicato 3 uguale al prodotto di 8 per il nono (9) numero triangolare (2-topico) (3*120 = 8*45) Il risultato che risale a Fermat e che il matematico considerava una "proposizione molto bella"[5] non che l'espressione della seguente
Triangolo di Tartaglia
65
Nota storica
La costruzione del triangolo di Tartaglia era nota a matematici cinesi nel XIV secolo[1][6] e forse anche in epoca anteriore. In Italia prese il nome da Niccol Tartaglia, che lo descrisse in un suo diffuso trattato nella prima met del XVI secolo, ma in Francia e successivamente anche nel mondo anglosassone prende il nome da Blaise Pascal, che un secolo dopo, nel 1654, ne fece grande uso nei suoi studi sulla probabilit. In Germania invece comunemente attribuito a Stiefel che ne scrisse nel 1544. Nel triangolo presente "1" al primo livello, due volte "1" al secondo e poi gli altri numeri. Ci rappresenta nei numeri il passaggio dall'Uno alla Diade, tipicamente platonico. La Diade del secondo livello deriva da uno sdoppiamento dell'Uno. Tartaglia ebbe contatti con Cardano, autore del "De subtilitate" (1547) e il "De rerum varietate" (1557) che contengono una riflessione sulla natura tipicamente rinascimentale, ispirata dal neoplatonismo.
Note
[1] [2] [3] [4] [5] [6] Katz, V.J. (1992) A History Of Mathematics : An Introduction d'aprs http:/ / www. roma. unisa. edu. au/ 07305/ pascal. htm (EN) Pascal's Triangle (http:/ / mathworld. wolfram. com/ PascalsTriangle. html) in Wolfram MathWorld http:/ / www. artofproblemsolving. com/ Resources/ videos. php?type=counting#chapter13 John H. Conway, Richard K. Guy, Il libro dei numeri. Hoepli 1999 ISBN 88-203-2519-5. Andr Weil, Teoria dei numeri. Einaudi 1993 ISBN 88-06-12745-4 Giovanni Giuseppe Nicosia, Cinesi, scuola e matematica, 2010, pagina 60
Altri progetti
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Pascal's triangle
Calcolo combinatorio
66
Calcolo combinatorio
Il calcolo combinatorio il termine che denota tradizionalmente la branca della matematica che studia i modi per raggruppare e/o ordinare secondo date regole gli elementi di un insieme finito di oggetti. Il calcolo combinatorio si interessa soprattutto di contare tali modi, ovvero le configurazioni e solitamente risponde a domande quali "Quanti sono...", "In quanti modi...", "Quante possibili combinazioni..." eccetera. Pi formalmente, dato un insieme S di n oggetti si vuole contare le configurazioni che possono assumere k oggetti tratti da questo insieme. Prima di affrontare un problema combinatorio bisogna precisare due punti importanti: Se l'ordinamento importante, ovvero se due configurazioni sono le stesse a meno di un riordinamento ({x,y,z} uguale a {z,x,y}?) Se si possono avere pi ripetizioni di uno stesso oggetto, ovvero se uno stesso oggetto dell'insieme pu o meno essere riusato pi volte all'interno di una stessa configurazione.
Permutazioni
Permutazioni semplici (senza ripetizioni)
Una permutazione di un insieme di oggetti una presentazione ordinata, cio una sequenza, dei suoi elementi nella quale ogni oggetto viene presentato una ed una sola volta. Per contare quante siano le permutazioni di un insieme con n oggetti, si osservi che il primo elemento della configurazione pu essere scelto in n modi diversi, il secondo in (n-1), il terzo in (n-2) e cos via sino all'ultimo che potr essere preso in un solo modo essendo l'ultimo rimasto. Dunque, indicando con Pn il numero delle possibili permutazioni di un insieme di n elementi, si ottiene che esse sono esattamente n! (n fattoriale):
Ad esempio le permutazioni degli elementi dell'insieme {a,b,c} sono 3! = 6: abc, bac ,bca, cab, cba, acb. Un altro esempio pu essere il seguente: In quanti modi possibili possiamo anagrammare la parola -ATRIO-, contando anche le parole prive di significato: ATRIO n=5; P5= 5 * 4 * 3 * 2 * 1 = 120 modi di anagrammare la parola ATRIO. N.B: nella parola ATRIO nessuna lettera si ripete. Per completare meglio la definizione di fattoriale fissiamo anche i valori seguenti: 1! = 1 e 0! = 1.
Si tratta, infatti, di dividere il numero delle distinte permutazioni di n oggetti per il numero delle permutazioni di k1! presenze di uno stesso elemento, tutte uguali tra loro, poi per il numero delle permutazioni di k2! presenze di uno stesso elemento, ecc. La formula vale in realt per qualsiasi permutazione, anche senza ripetizioni di elementi. Infatti, se assumiamo k1, k2 fino a kr uguali ad 1 (cio gli elementi si ripetono una sola volta), otteniamo esattamente la formula delle permutazioni semplici, perch si ha:
Calcolo combinatorio Ad esempio: In quanti modi possiamo anagrammare la parola FARFALLA. Le lettere contenute nella parola sono n=8; gli elementi che si ripetono sono F (k1=2) ; A (k2=3); L (k3=2) Utilizzando la formula, avremo:
67
Dismutazioni
Sono dette dismutazioni le permutazioni prive di punti fissi, con formula:
Disposizioni
Disposizioni semplici (senza ripetizioni)
Una disposizione semplice di lunghezza k di elementi di un insieme S di n oggetti, con k n, una presentazione ordinata di k elementi di S nella quale non si possono avere ripetizioni di uno stesso oggetto. Per avere il numero di queste configurazioni si considera che il primo componente di una tale sequenza pu essere scelto in n modi diversi, il secondo in (n-1) e cos via, sino al k-esimo che pu essere scelto in (n-k+1) modi diversi. Pertanto il numero Dn,k di disposizioni semplici di k oggetti estratti da un insieme di n oggetti dato da:
Ad esempio le disposizioni semplici di lunghezza 2 degli elementi dell'insieme {1,2,3,4,5} sono 5!/(5-2)! = 5!/3! = 120/6 = 20: 12, 13, 14, 15, 21, 23, 24, 25, 31, 32, 34, 35, 41, 42, 43, 45, 51, 52, 53, 54. Si osserva che le permutazioni sono casi particolari delle disposizioni semplici: le permutazioni di un insieme di n oggetti sono le disposizioni semplici di tali oggetti di lunghezza n. In effetti per il loro numero:
Ad esempio le disposizioni con ripetizione di lunghezza 2 degli elementi di {1,2,3,4,5} sono 52 = 25: Si osserva che pu anche essere k > n
Calcolo combinatorio
68
Combinazioni
Combinazioni semplici (senza ripetizioni)
Si chiama combinazione semplice una presentazione di elementi di un insieme nella quale non ha importanza l'ordine dei componenti e non si pu ripetere lo stesso elemento pi volte. La collezione delle combinazioni di k elementi estratti da un insieme S di n oggetti distinti si pu considerare ottenuta dalla collezione delle disposizioni semplici di lunghezza k degli elementi di S ripartendo tali sequenze nelle classi delle sequenze che presentano lo stesso sottoinsieme di S e scegliendo una sola sequenza da ciascuna di queste classi. Ciascuna delle suddette classi di sequenza di lunghezza k contiene k! sequenze, in quanto accanto a una sequenza si hanno tutte e sole quelle ottenibili permutando i componenti della . Quindi il numero delle combinazioni semplici di n elementi di lunghezza k si ottiene dividendo per k! il numero delle disposizioni semplici di n elementi di lunghezza k:
Di solito tra le diverse disposizioni semplici di una classe si sceglie come combinazione rappresentativa la sequenza nella quale i componenti compaiono in ordine crescente (tutti gli insiemi finiti possono avere gli elementi ordinati totalmente, ovvero associati biunivocamente ai primi interi positivi). Ad esempio le combinazioni semplici di lunghezza 4 degli elementi di {1,2,3,4,5,6} sono 6!/(4!2!) = 15: 1234, 1235, 1236, 1245, 1246, 1256, 1345, 1346, 1356, 1456, 2345, 2346, 2356, 2456, 3456.
contando anche i casi in cui uno dei bambini non riceve nessuna caramella: 0-4, 1-3, 2-2, 3-1, 4-0. Equivalentemente, le combinazioni con ripetizioni informano sul numero di possibili n-ple di addendi non negativi la cui somma sia k (considerando diverse n-ple in cui eguali addendi compaiano in ordine differente); nel suddetto esempio, sono mostrate le cinque diverse duple di somma 4. Inoltre, le combinazioni con ripetizioni per n oggetti di classe k rappresentano il numero delle derivate parziali di ordine k calcolabili per una funzione a n variabili.
Voci correlate
Combinatoria Permutazione Disposizione Combinazione Dismutazione (matematica) Binomio di Newton
Calcolo combinatorio
69
Altri progetti
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/ Category:Combinatorics
70
Tappe in linea
Poker
Poker Luogo origine Statunitense [1] Regole N giocatori Squadre Giro Azzardo Mazzo 3, 4, 5, 6 (versione italiana) No Senso orario S [1] 52 carte in numero variabile dipendente dal numero dei giocatori [1]
Se non riesci a individuare il pollo al tavolo da poker nella prima mezz'ora, allora il pollo sei tu.
Il poker una famiglia di giochi di carte nella quale alcune varianti sono classificabili come gioco d'azzardo, altre come poker sportivo. Tali giochi sono caratterizzati da un sistema di combinazioni formate con le carte di ciascun giocatore (il cui confronto determina il vincitore di ogni mano) e da un meccanismo di puntate successive che offre molte possibilit tattiche e di influenza sugli altri giocatori, consentendo in particolare di ritirarsi con perdite contenute dalle mani che non si ritiene di poter vincere. Il grande successo del poker dovuto al fatto che l'abilit del giocatore molto pi importante rispetto ad altri giochi d'azzardo, al punto da consentire l'esistenza di giocatori professionisti: la fortuna ovviamente determinante per le singole mani ma la valutazione delle probabilit, l'osservazione del comportamento degli altri giocatori al fine di
Poker intuire le loro combinazioni e l'esecuzione di bluff per indurli in errore fanno la differenza nell'arco di una partita. Se le puntate sono costituite da denaro vero si tratta di cash game, ossia di gioco d'azzardo. A partire dall'inizio degli anni novanta si aperta per i giocatori la possibilit di giocare a Poker online, cio collegandosi mediante Internet a sale da Poker organizzate e sedendosi a tavoli virtuali ai quali si gioca contro altre persone connesse dal proprio computer domestico. Tale sistema di gioco cresciuto progressivamente negli anni successivi, e costituisce oggi la principale modalit con la quale il poker praticato a livello mondiale.
71
Il gioco
Il poker giocato in una moltitudine di specialit e varianti, ma tutte seguono una medesima logica di gioco. Le carte vengono distribuite in senso orario e allo stesso modo cambia il mazziere (dealer). Egli viene generalmente segnalato con un bottone che diventa unico elemento per identificarlo e determinare, quindi, le puntate obbligatorie o i turni di gioco. Per ogni mano uno o pi giocatori devono porre una puntata obbligatoria (cip) che serve alla creazione di un piatto iniziale che i giocatori potranno contendersi. Il mazziere distribuisce le carte, coperte o scoperte, in base alle regole della specialit giocata. Quindi cominciano, sempre secondo le regole della specialit giocata, i giri di scommesse, nel quale a turno, ogni giocatore ha facolt di "parlare", ossia di eseguire un'azione. Si gioca sempre in senso orario. Le possibilit principali sono le seguenti: puntare (bet): il primo giocatore che apre il giro di scommesse mette una certa somma nel piatto; bussare o passare/dare la parola (check): il primo giocatore che apre il giro di scommesse pu decidere al momento di non puntare, il giocatore successivo a colui che ha passato decider se puntare o passare e cos vale anche per gli altri giocatori. Se tutti i giocatori passano il giro di scommesse chiuso. Un giocatore non pu passare se il giocatore precedente ha puntato; vedere o chiamare (call): dopo che il giocatore ha puntato, gli altri giocatori sono obbligati a puntare almeno altrettanto oppure uscire dalla mano. rilanciare (raise): un giocatore pu scommettere una somma maggiore del minimo richiesto per restare in gioco, ovviamente tutti gli altri giocatori sono tenuti a vedere o lasciare; lasciare (fold): un giocatore lascia qualora non sia intenzionato a vedere la puntata o il rilancio, ovvero consegna le carte al mazziere e rinuncia al piatto, perdendo quanto aveva scommesso in precedenza. Un giocatore pu lasciare anche se ha possibilit di passare, ma questa scelta non viene mai presa in considerazione perch non ha alcun senso. Alla fine dell'ultimo turno di puntate resta un solo giocatore (ha fatto l'unica puntata e tutti gli altri hanno passato, o ha rilanciato e gli altri rimasti hanno lasciato) o pi giocatori che hanno puntato tutti la stessa somma (vedendo la prima puntata o un rilancio successivo); in questo secondo caso, tipicamente pi raro, avviene lo showdown: si mostrano le carte dei giocatori e si confronta il punto di ciascuno: vince il punto di maggior valore a seconda della variante. Normalmente il valore corrisponde alla forza della mano. Alcuni giochi, come l'Omaha 8 e lo Stud 8, prevedono la ripartizione del piatto in parti uguali fra la mano col valore pi alto e quella col valore pi basso. In altri giochi, fra cui Razz, 2-7 Single Draw e 2-7 Triple Draw, il piatto viene assegnato al giocatore che ha la mano pi bassa. Il giocatore che in possesso del punto di maggior valore vince la mano e ha diritto di impossessarsi delle fiches (o dei contanti) dei giocatori che hanno lasciato in precedenza e di quelli che sono stati sconfitti allo showdown. Nel caso in cui due o pi giocatori fossero in possesso dello stesso punto (caso molto raro), il piatto viene diviso (split pot) in parti uguali ed ognuno dei suddetti giocatori ha diritto ad una parte del piatto. Normalmente, durante le partite di poker vige la regola delle "chip al tavolo" secondo la quale, durante una mano, possono essere puntate esclusivamente le chip presenti sul tavolo sin dall'inizio della mano in questione. Ne consegue che un giocatore non in grado di coprire una puntata o un rilancio effettuato da un avversario, in quanto non possiede abbastanza chip, costretto ad abbandonare la mano. Quando un giocatore ha puntato tutte le proprie
Poker chip nel piatto, esso considerato all-in; ulteriori puntate che il giocatore non in grado di coprire, nel caso in cui nella mano fossero coinvolti pi di due giocatori, andranno a costituire un secondo piatto per il quale competeranno solo i giocatori che vi hanno puntato, quindi il giocatore precedentemente in all-in ne escluso.[2] In ordine cronologico, il piatto primario prende il nome di "Main Pot", mentre i piatto secondari, che vanno quindi a costituirsi successivamente, sono detti "Side Pot". Le specialit del poker possono essere raggruppate in tre categorie: Draw poker Ogni giocatore riceve cinque (nel poker tradizionale) o pi carte tutte coperte. I giocatori possono cambiare una o pi carte per una o pi volte. Stud poker I giocatori ricevono le carte una alla volta, alcune coperte altre scoperte. La maggior differenza tra lo stud e il draw poker l'impossibilit di cambiare le carte. Community card poker Ogni giocatore riceve un determinato numero di carte coperte (due nel Texas Hold'em o quattro nell'Omaha) e pu utilizzare un determinato numero di carte comuni per comporre il proprio punto.
72
Poker
73
Storia
Le origini del gioco del poker sono tuttora oggetto di dibattito. Assomiglia molto a un gioco persiano ed stato probabilmente insegnato ai colonizzatori francesi di New Orleans dai marinai persiani. Il nome deriva, probabilmente, dal termine francese poque (ingannare), che deriva a sua volta dal tedesco pochen. Non chiaro se il poker derivi direttamente da giochi con quei nomi, tuttavia viene considerato un insieme di tutti questi giochi che ne hanno influenzato lo sviluppo fino al poker che conosciamo ai giorni nostri. La pi antica testimonianza si ha dall'attore inglese Joseph Crowel, che lo segnala nel New Orleans, giocato con un mazzo di 20 carte e da 4 giocatori che scommettono su chi ha la combinazione vincente. Il primo libro di Green Jonathan H., An Exposure of the Arts and Miseries of Gambling (G.B. Zieber, Filadelfia, 1843) che ne descrive la diffusione da l fino al Mississippi, dove il gioco era un comune passatempo. Subito dopo questa diffusione si inizia ad usare il mazzo francese con 54 carte e si ha l'introduzione del colore. Durante la guerra civile americana si hanno numerose aggiunte e le prime varianti del gioco, draw poker, stud poker e community card poker), seguite da numerose altre come il razz (variante in cui vince il punto pi basso) o lo Hi-Lo (variante in cui a vincere il piatto sono 2 o pi giocatori). La diffusione del gioco negli altri continenti attribuito ai militari americani. Nel primo novecento il gioco pi diffuso il 7 card stud, ma dopo gli anni 50 si impongono i poker a carte comunitarie, in primis il Texas Hold'em seguito dall'Omaha. La nuova modalit di gioco, il torneo, comincia a diffondersi nei casino americani dopo il primo WSOP (mondiale di poker che si svolge tutti gli anni a Las Vegas) e di l a poco si ha anche l'uscita dei primi libri di strategia come Super/System di Doyle Brunson (ISBN 1-58042-081-8) e The Book of Tells di Mike Caro (ISBN 0-89746-100-2), seguito poco dopo da The Theory of Poker di David Sklansky (ISBN 1-880685-00-0).
Doyle Brunson, due volte campione del mondo (1976, 1977, secondo nel 1980)
Phil Hellmuth Jr, campione del mondo nel 1989, detiene il primato di braccialetti WSOP vinti:11
Negli USA la popolarit del poker ha un'impennata senza precedenti durante i primi anni del XXI secolo, con l'avvento del poker on-line e l'introduzione della telecamera per le carte coperte utilizzata durante i maggiori eventi, ci che ha contribuito a far diventare il gioco uno sport spettacolare. Gli spettatori possono ora seguire e comprendere l'azione dei giocatori durante i maggiori eventi trasmessi, come il WSOP o il WPT (World Poker Tour), che hanno riscosso enorme successo nella TV satellitare e via cavo. Questa tendenza sta avendo riscontro anche in Europa in cui l'European Poker Tour giunto alla sua ottava edizione[3] contribuendo all'enorme diffusione a cui si assiste anche in Italia, dove sono sorte le prime associazioni come Italian Rounders. Nel giugno 2006, il Casin di Sanremo stata la prima casa da gioco italiana ad ospitare un torneo di Texas Hold'em Poker; ha poi ospitato la tappa italiana dell'European Poker Tour.
Poker La formula di gioco utilizzata in questi casi quella del torneo (per la formula del torneo vedi poker sportivo): il giocatore paga l'iscrizione e riceve delle fiches (chiamate chip) con le quali gioca; finite le fiches il giocatore eliminato, ad eccezione dei tornei dove consentito il rebuy. Gli ultimi ad essere eliminati sono i primi classificati del torneo, e si dividono l'ammontare del montepremi (alimentato dalle iscrizioni). Negli ultimi anni le WSOP, il WPT e l'European Poker Tour hanno avuto una notevole crescita anche grazie ai numerosi satelliti organizzati on line, i quali permettono a chiunque di accedere a questi eventi che una volta erano prerogativa di pochi a causa dei costi molto elevati. I campioni del mondo del 2003 e 2004, rispettivamente Chris Moneymaker e Greg Raymer, hanno vinto la loro partecipazione al mondiale (Main Event WSOP) giocando un satellite on line. Anche in Italia il poker in TV ha attecchito: Sportitalia, Sky, Italia 1, 7 Gold e POKERItalia24 (sul digitale terrestre) trasmettono partite di poker che riscuotono un notevole successo tra i telespettatori. Tra i campioni italiani di maggior spessore troviamo Max Pescatori vincitore di due braccialetti alle WSOP, uno nel 2006 e uno nel 2008[4], Luca Pagano che detiene il record delle presenze a premio nell'EPT (ben 18, di cui 6 tavoli finali)[5], Dario Alioto vincitore del torneo di Omaha alle WSOP Europe del 2007[6] e Dario "Caterpillar" Minieri, vincitore dell'evento $2.500 No Limit Hold'Em alle WSOP del 2008[7]. Oltre Pescatori, Alioto e Minieri, l'unico altro italiano ad aver vinto un braccialetto alle WSOP Valter Farina, che si aggiudicato l'evento $1.500 Seven Card Stud nel 1995. Viene spesso contrassegnato con la bandiera italiana agli eventi internazionali Jeff Lisandro, vincitore di ben cinque braccialetti, ma in realt il giocatore australiano, e ha origini italiane.
74
Note
[1] [2] [3] [4] Giochi di carte, di Marina Bono, 1 edizione luglio 2010, pag. 116, ed. KeyBook, ISBN 978-88-6176-254-1. Regole del poker (http:/ / www. pokerstars. it/ poker/ rules/ ). PokerStars EPT Official Page (http:/ / www. europeanpokertour. com/ ). European Poker Tour The Hendon Mob - Max Pescatori (http:/ / pokerdb. thehendonmob. com/ player. php?a=r& n=3195& sort=place& dir=asc). The Hendon Mob [5] The Hendon Mob - Luca Pagano (http:/ / pokerdb. thehendonmob. com/ player. php?a=r& n=326). The Hendon Mob [6] The Hendon Mob - Dario Alioto (http:/ / pokerdb. thehendonmob. com/ player. php?a=r& n=50080). The Hendon Mob [7] The Hendon Mob - Dario Minieri (http:/ / pokerdb. thehendonmob. com/ player. php?a=r& n=53606& sort=place& dir=asc). The Hendon Mob
Voci correlate
Regole e meccanica del poker Punti del poker Teorema fondamentale del poker Specialit e varianti del poker Poker sportivo WSOP European Poker Tour Federazione Italiana Gioco Poker Cash game Gioco Giochi con le carte Giocatore professionista di poker Skill games PokerTH
Poker
75
Altri progetti
Wikibooks contiene testi o manuali: http://it.wikibooks.org/wiki/Texas Hold'em Wikizionario contiene la voce di dizionario: http://it.wiktionary.org/wiki/poker Wikiquote contiene citazioni: http://it.wikiquote.org/wiki/Poker Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Poker
Collegamenti esterni
Poker (http://www.dmoz.org/World/Italiano/Giochi/Carte/Poker) su Open Directory Project ( Segnala (http:// www.dmoz.org/public/suggest?cat=World/Italiano/Giochi/Carte/Poker) su DMoz un collegamento pertinente
all'argomento "Poker")
76
77
Soluzione
La risposta s; le probabilit di trovare l'automobile raddoppiano.[2][3] La soluzione pu essere illustrata come segue. Ci sono tre scenari possibili, ciascuno avente probabilit 1/3: Il giocatore sceglie la capra numero 1. Il conduttore sceglie l'altra capra, la numero 2. Cambiando, il giocatore vince l'auto. Il giocatore sceglie la capra numero 2. Il conduttore sceglie l'altra capra, la numero 1. Cambiando, il giocatore vince l'auto. Il giocatore sceglie l'auto. Il conduttore sceglie una capra, non importa quale. Cambiando, il giocatore trova l'altra capra. Nei primi due scenari, cambiando il giocatore vince l'auto; nel terzo scenario il giocatore che cambia non vince. Dal momento che la strategia "cambiare" porta alla vittoria in due casi su tre, le chance di vittoria adottando la strategia sono 2/3. Una strategia di soluzione alternativa considerare che se si suppone di cambiare, il solo caso in cui si perde quello in cui originariamente si scelta l'automobile e quindi la domanda del conduttore pu essere considerata un invito a invertire le probabilit di successo con quelle di insuccesso. Il problema sarebbe diverso se non ci fosse una scelta iniziale, o se il conduttore scegliesse una porta a caso, o se il conduttore potesse offrire al giocatore di cambiare a seconda della scelta iniziale del giocatore. Alcune formulazioni del problema, e significativamente quella del settimanale Parade, non escludono esplicitamente queste possibilit; diversi testi di probabilit elementare riportano varianti del problema. Per esempio, se il conduttore offre la possibilit di cambiare solo se il giocatore inizialmente ha scelto l'automobile, le chance di vittoria associate alla strategia "cambiare" sono, ovviamente, dello 0%. Nella formulazione proposta nella sezione precedente, il giocatore che cambia ha una probabilit di vittoria pari a 2/3 precisamente perch il conduttore deve offrirgli la possibilit di cambiare, e deve rivelare una capra.
78
Diagrammi di Eulero-Venn
La probabilit che l'auto sia dietro la porta restante pu essere calcolata con l'ausilio del diagramma di Venn illustrato sotto. Dopo aver scelto la porta 1, per esempio, il giocatore ha probabilit 1/3 di aver selezionato la porta con l'auto, il che assegna una probabilit pari a 2/3 alle due porte restanti. Si osservi che c' una probabilit pari a 1 di trovare una capra dietro almeno una delle due porte non selezionate dal giocatore, dal momento che c' una sola auto in palio.
Si supponga che il conduttore apra la porta 3. Dal momento che pu solo aprire una porta che nasconde una capra, e non apre una porta a caso, questa informazione non ha effetto sulla probabilit che l'auto sia dietro la porta originariamente selezionata, che resta pari a 1/3. Ma l'auto non dietro la porta 3, dunque l'intera probabilit di 2/3 delle due porte non selezionate dal giocatore ora assegnata alla sola porta 2, come mostrato sotto. Un modo alternativo per arrivare a questa conclusione osservare che se l'auto si trova dietro la porta 2 o dietro la porta 3, aprire la porta 3 implica che l'auto si trova dietro la 2.
Osserviamo che il problema non cambierebbe se il conduttore, anzich aprire una porta, offrisse al giocatore la possibilit di cambiare la porta scelta con entrambe le altre. In questo caso evidente che la probabilit 2/3. Viceversa, la situazione cambierebbe completamente se il presentatore, dopo aver escluso la porta 3, scambiasse casualmente i premi nascosti dietro le porte 1 e 2. In questo caso il giocatore avrebbe probabilit 1/2 di vincere sia se mantiene la porta 1, sia se la cambia. Senza questo rimescolamento le probabilit restano 1/3 e 2/3.
79
Teorema di Bayes
Un'analisi del problema attraverso il teorema di Bayes rende esplicito l'effetto delle ipotesi sopra indicate. Si consideri, senza ledere la generalit dell'analisi, il caso in cui la porta 3 stata aperta dal conduttore mostrando una capra, e che il concorrente abbia selezionato la porta 1. La probabilit che l'automobile si trovi dietro la porta 2 (ovvero la probabilit di trovare l'auto dopo aver cambiato la scelta iniziale) ove A1 l'evento che l'auto si trovi dietro alla porta 1 e C3 l'evento che il conduttore selezioni una capra dietro la porta 3. La probabilit (a priori, utilizzando il gergo della statistica bayesiana) che l'automobile si trovi dietro la porta 1, che si denota con , chiaramente 1/3, in quanto l'auto ha a priori la stessa probabilit di trovarsi dietro ciascuna porta. La probabilit che il conduttore dello show trovi una capra dietro la porta 3, , altrettanto chiaramente 1, visto che il conduttore sapeva in anticipo dove si celava l'automobile e pertanto sa quale porta vada selezionata per trovare la capra. La probabilit che il conduttore selezioni una porta con dietro la capra posto ("a posteriori") che l'automobile sia dietro la porta 1, , 1 per ovvi motivi. Pertanto, sfruttando il teorema di Bayes: La probabilit di trovare l'auto cambiando la scelta iniziale, dopo che il conduttore (onnisciente) ha mostrato una porta con dietro la capra :
80
Il ragionamento intuitivo
La situazione che d'intuito ci viene a pensare questa, che purtroppo induce ogni ragionamento logico collegato a non riuscire a spiegare il problema di Monty Hall: Partiamo dalla situazione che vi un secondo concorrente a partecipare al gioco a premi per rappresentare la seconda situazione differente da quella del primo, il primo concorrente ha gi vinto la macchina, e al posto di una capra viene messa una moto in una porta. Ora a seconda di cosa sceglier il concorrente, vincer (scegliendo la porta con l'automobile che avrebbe dovuto vincere il primo concorrente), vi sar un pareggio (entrambi vinceranno: il primo concorrente vincer l'automobile e il secondo la moto) oppure perder (scegliendo la capra, lasciando vincere il primo concorrente). Supponi ora di partecipare a un gioco a premi, in cui puoi scegliere tra tre porte: dietro una di esse c' un'automobile, dietro un'altra una moto e infine dietro l'ultima, una capra. Scegli una porta, diciamo la numero 1, e il conduttore del gioco a premi, che sa cosa si nasconde dietro ciascuna porta, ne apre un'altra, diciamo la 3. Quindi ti domanda: "Vorresti scegliere la numero 2?" Ti conviene cambiare la tua scelta originale? Dietro ciascuna di tre porte c' un'automobile o una moto o una capra; la probabilit che l'automobile si trovi dietro una data porta identica per tutte le porte; Il giocatore sceglie una delle porte; il suo contenuto non rivelato; Il conduttore sa ci che si nasconde dietro ciascuna porta; Il conduttore deve aprire una delle porte non selezionate, e deve offrire al giocatore la possibilit di cambiare la sua scelta; Il conduttore aprir una delle porte non scelte a caso; Cio, indipendentemente da ci che ha scelto il giocatore il conduttore aprir una porta, eliminando la possibilit che la condizione finale correlata alla porta appena aperta si verifichi; Il conduttore offre al giocatore la possibilit di reclamare ci che si trova dietro la porta che ha scelto originalmente, o di cambiare, reclamando ci che si trova dietro la porta rimasta. Che cambiamento si ha? Le possibilit di vittoria aumentano?
81
Varianti
Il conduttore non sa cosa ci sia dietro le porte
Dopo la scelta del concorrente, il conduttore apre una delle due porte rimaste. Poich non sa cosa c' dietro, con probabilit 1/3 trova l'auto e il gioco finisce. Con probabilit 2/3 trova invece la capra e pu chiedere al concorrente se vuole effettuare il cambio con la porta rimasta chiusa. In questo caso accettare lo scambio non fa aumentare al concorrente la sua probabilit di vincere che a questo punto di 1/2 qualunque sia la sua decisione.[4]
Due giocatori
Ad alcuni minuti dalla fine del gioco, il conduttore sceglie due concorrenti a cui proporre "la grande scommessa". Dietro a una delle tre porte c' il premio pi consistente. Ad ogni giocatore permesso scegliere una porta (non la stessa) . In questo scenario, si pu esaminare una variante del problema. Il presentatore elimina il giocatore che abbia scelto una porta con dietro la capra (se lo hanno fatto entrambi, ne viene scelto uno a caso), apre la porta, svelando la capra e poi offre al giocatore rimanente la possibilit di cambiare la propria scelta. Il giocatore dovrebbe effettuare lo scambio? La risposta no. La ragione: il giocatore che effettuasse lo scambio in questo tipo di gioco vincerebbe se e solo se entrambi i giocatori avessero scelto una porta con la capra. che probabilit ha questa evenienza? 1/3. Se mantenesse la scelta resterebbero 2/3 di probabilit. Quindi chi mantenesse la scelta fatta inizialmente avrebbe il doppio delle possibilit di vincere. In alternativa, ci sono tre possibili scenari, tutti con uguale probabilit (1/3): Il giocatore 1 sceglie la porta che nasconde l'auto. Il conduttore deve eliminare il giocatore 2. Cambiare scelta comporta perdere. Il giocatore 2 sceglie la porta che nasconde l'auto. Il conduttore deve eliminare il giocatore 1. Cambiare scelta comporta perdere. Nessuno dei giocatori sceglie la porta che nasconde l'auto. Il conduttore elimina a caso uno dei due giocatori. Cambiare scelta comporta vincere. Il giocatore 1 l'unico rimasto nel primo caso, e lo con probabilit 1/2 nel terzo caso; in questa eventualit cambiare scelta comporta una probabilit di perdere (1/3) due volte maggiore di quella di vincere (1/6). Analogamente, nel secondo caso il giocatore 2 l'unico rimasto, e lo con probabilit 1/2 nel terzo caso; in questa eventualit cambiare scelta comporta una probabilit di perdere (1/3) due volte maggiore di quella di vincere (1/6). Dunque a prescindere da quale giocatore rimanga, c' una probabilit pari a 2/3 di vincere se non si cambia scelta. Per rendere pi palese la differenza rispetto al caso precedente si pu dire che non si pu qui ragionare come prima dove il (unico) giocatore arriva sempre al secondo turno (quello del possibile scambio) e la probabilit che abbia selezionato la scelta vincente rimane 1/3, contro i complementari 2/3 della scelta alternativa. Si deve invece notare che nell'istante in cui un giocatore (uno dei due) arriva al secondo turno deve considerare che la probabilit che abbia inizialmente effettuato la scelta giusta si modifica e sale a 2/3. In sostanza il giocatore rimasto riveste in questo caso, in termini di probabilit, lo stesso ruolo che prima (caso con un giocatore) ricopriva la porta non selezionata dal giocatore n eliminata dal conduttore.
82
n porte
Esiste una generalizzazione del problema originale in cui si hanno n porte: nel primo stadio del gioco, il giocatore sceglie una porta. Quindi il conduttore apre un'altra porta, che nasconde una capra. Se il giocatore vuole, pu quindi cambiare scelta e passare a un'altra porta. Il conduttore aprir allora un'ulteriore porta, ancora non aperta, che nasconde una capra, diversa da quella attualmente scelta dal giocatore. Il giocatore ha quindi la possibilit di cambiare ancora scelta, e cos via. Questo procedimento continua fino a che non restano che due porte non ancora aperte: la scelta corrente del giocatore, e un'altra porta. Quante volte dovrebbe cambiare scelta il giocatore, e a che punto del gioco (sempre che cambi almeno una volta)? La migliore strategia : restare con la prima scelta sino a che non rimangano solo due porte e a quel punto cambiare. Seguendo questa strategia la probabilit di vincere . Questa variante del paradosso di Monty Hall si deve a Bapeswara Rao e Rao.
Versione quantistica
Esiste una versione quantistica del paradosso, che illustra alcuni aspetti della relazione tra la teoria dell'informazione classica (non quantistica) e l'informazione quantistica, ossia l'informazione codificata negli stati di sistemi meccanici quantistici. Le tre porte sono rimpiazzate da un sistema quantistico che consta di tre alternative, in cui aprire una porta e vedere cosa nasconde si traduce in fare una particolare misurazione. Le regole del gioco possono essere espresse in questo linguaggio, e ancora una volta il giocatore pu scegliere se restare fedele alla propria scelta iniziale o cambiare e optare per una scelta alternativa ("ortogonale"). Quest'ultima strategia ha probabilit di vittoria doppie, esattamente come nel caso classico. Tuttavia, se la posizione del premio non pienamente casuale in senso quantistico, il giocatore pu fare ancora meglio, e in determinati casi vincere con probabilit pari a uno. disponibile in rete un articolo [6] al riguardo, nonch un'applet [7] che illustra gli effetti cos descritti.
83
Note
[1] http:/ / www. letsmakeadeal. com/ problem. htm [2] (EN) Grinstead, Charles M. and Snell, J. Laurie, Grinstead and Snells Introduction to Probability (http:/ / www. math. dartmouth. edu/ ~prob/ prob/ prob. pdf) (PDF), 4 luglio 2006, pp. 136-139. URL consultato il 4 luglio 2012. [3] (EN) David Morin, Probability (http:/ / www. people. fas. harvard. edu/ ~djmorin/ probability. pdf), p. 49 [4] Rosenthal, Jeffrey S. (2005a). "Monty Hall, Monty Fall, Monty Crawl" (http:/ / probability. ca/ jeff/ writing/ montyfall. pdf). Math Horizons: September issue,57 (in inglese). URL consultato in data 12 luglio 2012. [5] Restricted Choice Article (http:/ / www. acbl-district13. org/ artic003. htm) [6] http:/ / xxx. lanl. gov/ abs/ quant-ph/ 0202120 [7] http:/ / www. imaph. tu-bs. de/ qi/ monty/ [8] p. 77, 78, 79 e 80. Mark Haddon, Lo strano caso del cane ucciso a mezzanotte, Einaudi (2003) [9] Numb3rs - Episodio 1.13, Caccia all'uomo [10] Scarlett Thomas, PopCo Newton Compton Editori (2007) [11] p.75,76,77.Colin Bruce, I conigli di Schrdinger, Raffaello Cortina Editore (2006)
Bibliografia
(EN) Bapeswara Rao, V. V. e Rao, M. Bhaskara (1992). A three-door game show and some of its variants. The Mathematical Scientist 17(2), 8994 (EN) Bohl, Alan H.; Liberatore, Matthew J.; e Nydick, Robert L. (1995). A Tale of Two Goats... and a Car, or The Importance of Assumptions in Problem Solutions. Journal of Recreational Mathematics 1995, 19. Joseph Bertrand (1889). Calcul des probabilits (EN) Gardner, Martin (1959). Rubrica "Mathematical Games", Scientific American, Ottobre 1959, 180182. (EN) Mueser, Peter R. e Granberg, Donald (1999). The Monty Hall Dilemma Revisited: Understanding the Interaction of Problem Definition and Decision Making (University of Missouri Working Paper 99-06). http:// econwpa.wustl.edu:80/eps/exp/papers/9906/9906001.html (retrieved July 5, 2005). (EN) Nahin, Paul J. (2000). Duelling idiots and other probability puzzlers. Princeton University Press, Princeton, NJ, 192-193. ISBN 0-691-00979-1 (EN) Selvin, Steve (1975a). A problem in probability (letter to the editor). American Statistician 29(1):67 (Febbraio 1975). (EN) Selvin, Steve (1975b). On the Monty Hall problem (letter to the editor). American Statistician 29(3):134 (Agosto 1975). (EN) Tierney, John (1991). Behind Monty Hall's Doors: Puzzle, Debate and Answer?, The New York Times 21 luglio 1991, Domenica, Section 1; Part 1; Page 1; Column 5 vos Savant, Marilyn (1990). Rubrica Ask Marilyn, Parade Magazine 12 (17 febbraio 1990). [citata in Bohl et al., 1995] (EN) Adams, Cecil (1990). On 'Let's Make a Deal,' you pick Door #1. Monty opens Door #2--no prize. Do you stay with Door #1 or switch to #3?, The Straight Dope 2 novembre 1990. http://www.straightdope.com/ classics/a3_189.html (consultata il 25 luglio 2005). (EN) Tijms, Henk (2004). Understanding Probability, Chance Rules in Everyday Life. Cambridge University Press, New York, 213-215. Haddon, Mark (2003). Lo strano caso del cane ucciso a mezzanotte Einaudi. Rosenthal, Jeffrey S. (2006). Le regole del caso, istruzioni per l'uso, Longanesi, Milano, ISBN 88-304-2370-X (EN) Rosenhouse, Jason (2009). The Monty Hall Problem, Oxford University Press ISBN 978-0-19-536789-8
84
Voci correlate
Paradosso delle tre carte
Altri progetti
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Monty Hall problem
Collegamenti esterni
Simulazione fino a 100.000 tentativi (http://utenti.quipo.it/base5/probabil/montyhall.htm) Simulatore giocabile del paradosso (http://www.taravella.eu/content/view/14/27/)
Lotto
Il gioco del lotto (o semplicemente lotto) un gioco d'azzardo, e probabilmente il gioco a premi pi diffuso in Italia. Il gioco disciplinato dalla legge n. 528 del 2 agosto 1982 e dal Decreto del Presidente della Repubblica n. 560 del 16 settembre 1996. La sua gestione affidata all'Ispettorato Generale per il Lotto e Il logo del Lotto le Lotterie, Direzione Generale delle Entrate Speciali, che ha sede presso il Ministero delle Finanze. La gestione della raccolta delle giocate e dei pagamenti delle vincite affidata in concessione a Lottomatica.
Etimologia
La parola "lotto" deriva dal francese "lot", che significa sia "porzione" che "sorte". Il termine, giunto nella penisola iberica, documentato come "lote" in spagnolo e "loto" in portoghese. Il verbo francese "lotir", inoltre, significa "dividere la sorte" o "assegnare la sorte". Ma analogo lemma si ritrova nell'antico inglese "hlot" ("cosa toccata in sorte"), cui corrispondono "Los" nel tedesco moderno e "lot" nel danese. prevalente la teoria secondo cui il termine arriva in Francia dal mondo germanico, diffondendosi poi negli altri paesi dell'area romanza.
Lotto
85
Combinazioni vincenti
Il gioco consiste nello scommettere sui numeri estratti sulle varie ruote. Si pu scommettere di indovinare, su una ruota, su pi ruote o su tutte le ruote: l'ambata, o estratto semplice, ovvero un solo numero (l'ordine di estrazione non conta); l'estratto determinato, ovvero un numero e la posizione in cui viene estratto; l'ambo, ovvero due numeri; il terno, ovvero tre numeri; la quaterna, ovvero quattro numeri; la cinquina, ovvero cinque numeri.
Si possono giocare fino a 10 numeri sulla stessa scheda. La vincita pagata a quota fissa e dipende da quanti numeri si sono indovinati, da cosa si giocato e da quanti numeri sono stati messi in gioco.
Vincite e probabilit
La probabilit che esca un singolo numero su una determinata ruota di 1 su 18 (5/90). La vincita pagata da Lottomatica, unica concessionaria ufficiale del gioco del Lotto, ammonta a 11,232 volte la posta, da cui deve essere detratta la trattenuta diretta del 6%. Nella seguente tabella viene indicata la vincita lorda che si ottiene giocando 1 euro su 1 ruota e indovinando tutti i numeri in gioco.
Lotto
86
Numeri giocati Numeri indovinati Vincita lorda (euro) Probabilit di vincita 1 2 3 4 5 1 2 3 4 5 11,23 250,00 4500,00 120000,00 6000000,00 1 su 18 1 su 400,5 1 su 11748 1 su 511038 1 su 43949268
La tabella mostra anche che da un punto di vista matematico il gioco del lotto un gioco definibile "non equo", laddove per gioco equo si intende un gioco che paga al vincitore una vincita pari alla posta giocata moltiplicata per l'inverso della probabilit di vincita; in questo caso 18 per una ambata, mentre invece si pu notare che la "iniquit" del gioco cresce al crescere della "difficolt" del gioco in quanto il rapporto vincita equa/vincita reale varia come segue: 1,6, 1,6, 2,61, 4,26, 7,32, e se si considera la trattenuta del 6% sulla vincita tali valori sono ancora pi alti. In generale, giocando su N ruote (1 N 10) la vincita lorda risultante quella indicata in tabella divisa per N. Giocando M numeri (1 M 10) la vincita risultante quella indicata in tabella divisa per il numero delle combinazioni che si ottengono combinando tra loro X elementi (dove X vale 1, 2, 3, 4, 5 a seconda che si giochi per ambata, ambo, terno, quaterna, cinquina) su M posizioni; in formula:
dove
il coefficiente binomiale.
Con una sola schedina la vincita massima lorda consentita 6 milioni di euro.
Vincite record
Sette sono state le vincite che finora in Italia hanno superato il milione di euro al gioco del Lotto: 1. 2. 3. 4. 5. 6. 7. Cinquina da 3 069 500 realizzata a Barcellona Pozzo di Gotto (Messina) nel gennaio 2007 Cinquina da 3 064 750 realizzata a Roma nel settembre 2007 Cinquina da 3 062 375 realizzata a Siano (Salerno) il 10 luglio 2008 Cinquina da 3 062 250 realizzata a Surbo (Lecce) nell'aprile 2005 Cinquina da 3 031 250 realizzata a Vernole (Lecce) il 14 febbraio 2008 Quaterna da 2 400 000 realizzata a Morgano (Treviso) il 10 giugno 2008 Quaterna da 2 000 000 realizzata a Roma il 5 settembre 2009 (il fortunato giocatore ha centrato una quaterna sulla ruota di Roma dove aveva puntato 10 euro, il resto della vincita stato realizzato dai terni, su quali ha puntato 190 euro).
Lotto
87
Cenni storici
Sulla genesi del lotto in Italia non ci sono elementi certi e molti sono i "progenitori" di questo gioco. Nel 1448 si ha notizia a Milano delle cosiddette "borse di ventura" che in sostanza possono ritenersi un primo abbozzo delle scommesse caratterizzanti il vero lotto. Di certo l'abitudine a scommettere si diffuse largamente in ogni angolo del Paese ed ogni avvenimento pubblico diede vita a grande attivit di gioco, tanto che a Genova nel 1588 uno Statuto lo proibiva totalmente decretando che non si poteva far gioco sulla vita del Pontefice, dell'imperatore, dei re, dei cardinali, sulla riuscita degli eserciti, sull'esito delle guerre, sui matrimoni, sulle elezioni dei magistrati o dei dogi e addirittura sulla peste. Le prime notizie certe intorno al gioco del Lotto vengono fatte risalire al 1620: da quell'anno in poi, proprio a Genova, il lotto trova una precisa regolamentazione; del resto, nella citt ligure un gioco simile al moderno lotto e basato sui numeri era gi nato proprio in relazione alle scommesse che si facevano sull'elezione dei senatori della citt. Negli altri Stati italiani e nello Stato Pontificio, invece, il gioco del lotto era osteggiato per motivazioni di ordine morale. Nel 1728 il Papa Benedetto XIII arriv addirittura a minacciare la scomunica per chiunque vi avesse partecipato, ma tre anni dopo il gioco fu riammesso dal suo successore Clemente XII e nel 1785 Pio VI ne decise la destinazione a favore delle opere pie. A Venezia il gioco del lotto compare per la prima volta - a quanto si sa - nel 1734 e si svolge sotto l'egida del Governo della Repubblica. Nel resto d'Italia, la liceit del gioco del lotto viene ammessa gradualmente e trova via via una regolamentazione ufficiale: considerati i notevoli introiti derivanti dalle giocate, le Autorit pubbliche pongono il gioco sotto il proprio monopolio. Nel 1863 ormai il gioco del lotto diffuso in tutta l'Italia e da quell'anno viene giocato su 6 differenti ruote (Firenze, Milano, Napoli, Palermo, Torino e Venezia) che arriveranno a 7 nel 1871, dopo l'annessione di Roma all'Italia e a 8 nel 1874 con l'introduzione della ruota di Bari. La struttura a 10 ruote viene inaugurata l'8 luglio 1939 con l'introduzione delle ruote di Cagliari e Genova mentre l'introduzione della ruota Nazionale (11 ruota) risale al 4 maggio 2005. Le estrazioni, un tempo limitate a due o tre allanno, si fanno pi frequenti diventando quindicinali nel 1807, settimanali nel 1871, bisettimanali nel 1997 e trisettimanali nel 2005.[1]
Lotto esponenzialmente in funzione delle giocate effettuate: la stragrande maggioranza dei giocatori destinata ad andare in perdita ed su questo presupposto che si basano tutti coloro che propongono dei giochi d'azzardo (qualsiasi societ pubblica o privata che lo organizzi). In altri termini, per ogni singolo turno d'estrazione, il monte complessivo delle puntate di norma superiore alle vincite pagate: come si dice, "il banco vince sempre". Dal canto loro i sostenitori della "teoria dei ritardatari" fanno rilevare che solo all'uscita di numeri cosiddetti centenari il banco "salta", cio l'importo delle vincite maggiore dell'importo giuocato. Pertanto potremmo dire che "il banco vince sempre o quasi (a patto che non escano combinazioni molto giocate)". Infatti l'affermazione che il banco vince sempre, nello specifico del Lotto, dovuta alla sua iniquit nel pagare le vincite in rapporto alla probabilit e non certo dall'erronea (o supposta tale) metodologia di gioco adottata dai giocatori-sistemisti.
88
Trucchi e brogli
Certamente, l'unica possibilit per vincere a colpo sicuro consiste nel truccare le estrazioni. Voci e sospetti su trucchi o brogli in tutti i giochi d'azzardo e in particolare nel lotto non sono mai mancati, a torto o a ragione. Una truffa venne ideata alla fine degli anni ottanta, quando esisteva ancora il vecchio sistema delle palline: il bambino incaricato dell'estrazione veniva addestrato a riconoscere alcune palline che erano state lucidate di pi rispetto alle altre. Il piano venne scoperto alla fine degli anni novanta.[2] Si sospetta che estrazioni 'pilotate' siano avvenute in Lombardia, dove si sono registrate con insospettata frequenza plurivincite di ambi ed estratti semplici, soprattutto nella zona di Milano. Oggi la sicurezza delle operazioni di estrazione garantita da sistemi di controllo e notifica dell'Amministrazione Autonoma dei Monopoli di Stato.
I numeri pi ritardatari
La classifica dei dieci numeri pi ritardatari nella storia del Lotto dal 1871 ad oggi.
Numero 34 8 55 82 67 71 47 28 53 11 Ruota Cagliari Roma Bari Bari Venezia Cagliari Bari Bari Venezia Torino Estrazioni attese Data di uscita 203 201 196 193 191 191 189 187 182 181 1-4-2006 23-8-1941 12-3-1960 27-11-1943 18-10-1924 26-6-1971 13-11-1917 26-7-1902 9-2-2005 22-3-1931
Da questo elenco si nota come nella storia del Lotto, dal 1871 ad oggi, nessun numero abbia mai superato la soglia delle 203 estrazioni di ritardo, primato che appartiene al numero 34 sulla ruota di Cagliari, il quale ad aprile 2006 ha battuto il longevo record che apparteneva dal 1941 al numero 8 sulla ruota di Roma. La probabilit che un numero prefissato abbia un ritardo di 203 estrazioni su una ruota prestabilita circa di 1 su 109443 per una serie di esattamente 203 estrazioni (evento comunque circa 402 volte pi probabile rispetto a indovinare una cinquina su una singola estrazione) e scende a circa 1 su 410 per una serie di 5000 estrazioni. Finora il ritardo medio-massimo per un estratto arrivato alle 90 estrazioni, raramente oltre le 140 estrazioni e quasi mai oltre le 200.
Lotto Negli anni pi recenti ci sono stati ben due "casi", come la classifica sopra riportata evidenzia: il 53 sulla ruota di Venezia, uscito nel febbraio 2005 dopo 182 turni, e addirittura il record assoluto del gi menzionato 34 sulla ruota di Cagliari: ogni volta che si registrano ritardi cos significativi, invariabilmente, il lotto diventa un vero fenomeno di costume, capace di catalizzare mass media ed opinione pubblica, aumenti delle giocate (le cui tasse vanno ad arricchire le entrate fiscali), e spesso anche episodi da cronaca nera (suicidi, usura, truffe, fughe, ecc.). Secondo la statistica relativa agli ambi ritardatari, il capolista assoluto fra questi l'ambo 17-56 sulla ruota di Bari, unico mai estratto dall'introduzione del lotto a 10 ruote e comunque mancante dal 28 luglio 1923, con un ritardo che a fine luglio 2012 supera le 5.820 estrazioni. In ordine cronologico, il secondo ambo pi ritardato 9-22 sulla ruota di Milano (oltre 3.900 estrazioni)[3].
89
Curiosit
Il matematico e statistico Bruno de Finetti, a proposito del lotto e dei giochi basati sulla sorte, parl di "tassa sugli imbecilli".
10eLotto
un nuovo gioco legato al Lotto, nato il 28 luglio 2009; su una schedina si scelgono 10 numeri dall'1 al 90 e, inoltre, si pu scegliere tra estrazione immediata e estrazione del Lotto. Nell'estrazione immediata, dopo la convalida della giocata il terminale estrarr casualmente 20 numeri. Nell'estrazione del Lotto, invece, la combinazione vincente viene determinata dai primi due numeri delle ruote del Lotto, esclusa la ruota Nazionale; in caso di numeri ripetuti si partir dalla terza colonna iniziando dalla ruota di Bari e proseguendo in ordine alfabetico. In questo gioco si possono giocare da 1,00 a 200. Dal 15 dicembre 2009 si pu anche giocare con la modalit estrazione ogni 5 minuti dove dalle 5:00 alle 24:00 di ogni giorno, ogni 5 minuti vengono estratti 20 numeri. L'estrazione verificabile sul monitor all'interno delle ricevitorie abilitate che ad oggi sono circa 10.000 su tutto il territorio nazionale. Inoltre dal 23 settembre 2010 si possono giocare non soltanto tutti e dieci i numeri ma anche da 1 a 10 ed il primo premio passa da 500.000 ad 1.000.000 .
Lotto
90
2 1
3 2
4 3 2
5 4 3 2
Lotto
91
6 5 4 3
7 6 5 4 0
8 7 6 5 0
9 8 7 6 5 0
Lotto
92
0 5 6 7 8 9 10
Probabilit di vincita per numeri giocati Probabilit di vincita al 10eLotto per un numero giocato
Numeri Probabilit indovinati 1 1 su 4,5
Lotto
93
Lotto
94
10 1 su 30.963.246
Lotto Pi
Lotto Pi, una nuova modalit di gioco del lotto lanciata ufficialmente il 23 maggio 2012. Il giocatore del Lotto Pi su un'apposita schedina dalla grafica semplice, disponibile in tagli predefiniti negli importi (3, 4 e 5 ) e nelle sorti che si possono giocare (dallambo fino alla cinquina a seconda dellimporto giocato), deve scegliere i propri numeri e la ruota su cui puntare. Le tre tipologie di giocata offrono moltiplicatori di vincita pi elevati rispetto alle stesse giocate effettuate al Lotto fino ad oggi. Nello specifico, con la schedina da 3 il giocatore sceglie solo 3 numeri puntando su ambo e terno ove il primo rende 270 volte la posta (anzich 250), mentre il secondo 5.000 volte la posta (anzich 4.500). In tal caso la vincita superiore di circa 800 euro rispetto a quella realizzabile con una giocata tradizionale.
Lotto Con la schedina da 4 , il giocatore sceglie solo quattro numeri giocando su ambo, terno e quaterna, nella quale, lambo rende 300 volte la posta (anzich 250), il terno 6.000 volte la posta (anzich 4.500) e la quaterna 210.000 volte la posta (anzich 120.000). I moltiplicatori in questo caso aumentano fino al 75% e la vincita massima superiore di 119.000 rispetto al Lotto tradizionale. Infine, con la schedina da 5 si possono giocare solo cinque numeri puntando anche sulla cinquina ove lambo rende 330 volte la posta (anzich 250), il terno 7.000 volte la posta (anzich 4.500), la quaterna 230.000 volte la posta (anzich 120.000) e la cinquina 8 milioni di volte la posta (anzich 6 milioni). In questo caso i moltiplicatori di vincita aumentano fino al 90% in pi. Per usufruire dei moltiplicatori speciali Lotto Pi necessario giocare solo con le schedine dedicate o richiedere espressamente al ricevitore una giocata Lotto Pi.
95
Voci correlate
Gioco d'azzardo Lotteria Lottomatica Superenalotto
Note
[1] Vedi Storia del Lotto Le ultime novit (http:/ / www. lottomaticaitalia. it/ lotto/ gioco/ novita. html) e Glossario Estrazioni infrasettimanali (http:/ / www. lottomaticaitalia. it/ lotto/ gioco/ glossario. html#lettera_e) in www.lottomaticaitalia.it [2] Vedi http:/ / www. repubblica. it/ online/ fatti/ lotto/ lotto/ lotto. html La Repubblica 14 gennaio 1999 [3] Statistiche ambi ritardatari (http:/ / www. lottomaticaitalia. it/ lotto/ statistiche/ statisticheAmbiRitardatari. html) Lottomaticaitalia.it
Altri progetti
Wikinotizie contiene notizie di attualit: http://it.wikinews.org/wiki/Lotto
Collegamenti esterni
Lotto (http://search.dmoz.org/cgi-bin/search?search=Lotto&all=yes&cs=UTF-8&cat=World/Italiano) su Open Directory Project ( Segnala (http://www.dmoz.org/public/suggest?cat=) su DMoz un collegamento pertinente
all'argomento "Lotto")
Roulette
96
Roulette
La roulette un gioco d'azzardo di origine italiana (la girella) introdotto in Francia nel XVIII secolo. Consiste in un disco, diviso in 37 (o 38, nella roulette americana) settori numerati da 0 a 36 e colorati alternativamente in rosso e nero, mentre lo zero (0), come il doppio zero (00) quando presente, normalmente colorato di verde o in bianco (in pochissimi casi); il disco viene fatto ruotare nella sua sede dal gestore del banco (il croupier) che successivamente vi lancia una pallina, originariamente in avorio, oggi in resina o teflon: la pallina viene fatta ruotare in senso opposto a quello della roulette, e si ferma cadendo in uno dei settori numerati, determinando il numero vincente.
La roulette
Linguaggio
La lingua comunemente usata dai croupiers durante il gioco della roulette il francese, nel quale vengono pronunciate le frasi che regolano ogni fase del gioco: Faites vos jeux (apertura del tavolo, dopo il pagamento delle vincite precedenti) Les jeux sont faits (al lancio della pallina) Rien ne va plus (fine delle puntate, quando l'uscita del numero imminente') l'annuncio del numero uscito, come nel seguente esempio: "27, rouge, impair et passe", seguito dall'indicazione delle puntate vincenti dei giocatori (plein, cheval, ecc.) o da "rien au numro" se non vi sono vincite.
Tipologie di roulette
Vi possono essere tre tipi di tavolo: roulette francese, il tavolo classico, con i numeri da 0 a 36. la tipologia pi diffusa; si differenzia dalle altre due tipologie perch, nel caso dell'uscita dello 0, le puntate sulle chance semplici vengono imprigionate per la mano in corso se poi esce un numero corrispondente alla chance puntata in precedenza, la puntata viene rimessa in libert e si comporter come una nuova puntata che pu quindi vincere o perdere (regola dell'en prison). C' inoltre una deroga convenzionalmente utilizzata in quasi tutti i casin europei: quando esce lo 0 le puntate sulle chance semplici si possono dividere con il banco. Ad esempio ho puntato 20 pezzi su rosso ed esce zero ritiro dal tavolo 10 pezzi ed il banco incamera la differenza. roulette inglese, come la roulette francese, ma senza la regola dell'en prison. Il tappeto di gioco diverso per due motivi:
nel tavolo francese ci sono tre croupier a far svolgere il gioco mentre in quello inglese e americano uno; ci sono gli annunci (vicini dello zero, serie 5/8 e gli orfanelli) e sul tappeto rappresentato il cilindro con i tre settori degli annunci;
Roulette roulette americana, si differenzia dalle precedenti due per la presenza di una trentottesima casella: il doppio zero (00), anch'essa verde; come nella roulette inglese, non esiste la regola dell'en prison e ci sono quattro tipi di annunci e tutti giocano in pieno: GOLD (5,7,11,17,20,22,26,30,32,34) SILVER (6,8,9,12,18,19,21,28,29,31) SMALL (0,2,4,14,16,23,33,35) (00,1,3,10,13,15,24,25,27,36) AMERICANA
97
Douzaine, dozzine (prima, seconda o terza) in cui, in caso di vittoria, si vince 2 volte la somma puntata Colonne, colonne (prima, seconda o terza colonna del tavolo) in cui, in caso di vittoria, si vince 2 volte la somma puntata
Puntate Semplici
Ci sono poi 3 ulteriori tipologie di puntata, chiamate Chanches Simples, che in caso di vittoria, restituiscono 1 volta la somma puntata e sono: Pair ou Impair, o anche Even or Odd, ovvero numeri pari o dispari Manque ou Passe, ovvero i numeri da 1 a 18 o quelli da 19 a 36 Rouge ou Noir, ovvero i numeri rossi o neri Esistono poi sistemi di gioco codificati a livello internazionale, i pi comuni sono: i vicini dello zero, la serie 5/8 e gli orfanelli. Zero e i vicini dello zero ("zro et les voisins du zro") sono una serie di 17 numeri ubicati sul cilindro alla destra e alla sinistra dello zero tra il 22 e il 25 compresi, e si possono giocare con un totale di 9 fiches. I numeri in questione sono 0-2-3, 4-7, 12-15, 18-21, 19-22, 25-26-28-29, 32-35 con due fiches sullo 0-2-3 e sul carr 25-29. La serie 5/8 ("tiers du cylindre" o pi semplicemente "tiers") composta da 12 numeri giocabili con 6 fiches su 6 cavalli, i numeri sono 5-8, 10-11, 13-16, 23-24, 27-30, 33-36, e sono ubicati, sul cilindro, in maniera diametralmente opposta ai "vicini dello zero". Gli orfanelli (o "orphelins"), cos chiamati proprio perch non facenti parte di nessuna delle due serie sopra esposte, sono gli 8 numeri rimanenti, ossia 1, 6-9, 14-17, 17-20, 31-34 (l'1 pieno, gli altri a cavallo), si possono giocare con 5 fiches e sono ubicati, in parte sul lato sinistro ed in parte sul lato destro del cilindro, che per consuetudine viene rappresentato con lo "0" in alto. In Scozia si usa giocare la "tier press", che altro non che la tier normale (5-8-10-11-13-16-23-24-27-30-33-36) con l'aggiunta dei pieni dei primi quattro numeri (ossia 5-8-10-11) per un totale di 10 fiches. Altra celebre e diffusa puntata quella denominata "nassa". Come gli orfanelli, si effettua puntando 5 fiches, che vanno a coprire 8 numeri vicini dello zero: il 26 e il 19 pieni e i cavalli 0-3, 12-15, 32-35. considerata la giocata ridotta rispetto al sistema "vicini dello zero" e offre il 21.6% di probabilit di vincita.
Sistemi di gioco
Roulette
98
Statistica
La roulette, come tutti i giochi d'azzardo nei quali presente un banco, garantisce al banco stesso una percentuale matematica di vantaggio sul giocatore, che in questo caso risulta essere del 2,70% circa, una percentuale tutto sommato esigua rispetto a giochi tipo il Lotto od il Totocalcio dove la stessa addirittura del 60% circa. Non ci sono sistemi di gioco che garantiscano una vincita sicura. Nel 1985 Olivier Doria ipotizz un sistema basato sull'incrocio di parabole dirette in senso opposto. E cio piazzando una telecamera che calcolasse, al momento del lancio, la velocit della pallina alla partenza e, simultaneamente la velocit della ruota in senso opposto, si sarebbe potuto calcolare il settore della roulette nel quale la pallina avrebbe avuto pi probabilit di atterrare. Se si gioca un numero singolo, le probabilit di vincita calcolate sono del 2,702703% per i tavoli francese e inglese, e del 2,63158% per il tavolo americano; in caso di vincita il banco paga 35 volte la posta giocata.
Voci correlate
Casa da gioco Gioco d'azzardo Baratteria (gioco)
Altri progetti
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Roulette
Blackjack
Blackjack
Una partita a Blackjack Luogo origine Francese Regole N giocatori Squadre Giro Azzardo Mazzo Gerarchia semi Gerarchia carte 7 + Banco No Senso orario S 2 mazzi di 52 carte No No
Il Black Jack (in italiano chiamato anche Ventuno) un gioco d'azzardo di carte che si svolge tra il banco, rappresentato dal casin, e i giocatori. Vincono i giocatori che realizzano un punteggio pi alto del banco non
99
Storia
Il gioco nato in Francia nel XVII secolo, con il nome di Vingt-et-un (ossia "ventuno"). Una volta approdato negli Stati Uniti il gioco del ventuno venne denominato Black Jack (fante nero) con l'introduzione di una variante: qualora il giocatore facesse 21 con un asso e un jack di picche, veniva pagato con un bonus di dieci volte la posta. Anche se attualmente il bonus stato abolito, il nome comunque rimasto.
Le carte
Di norma il Black Jack viene usato con un sabot formato da 2 mazzi di carte francesi, per un totale di 104 carte. Nel gioco l'asso pu valere 11, o 1, le figure valgono 10, mentre le altre carte valgono il loro valore nominale. I semi non hanno alcuna influenza, o valore. La somma dei punti, al fine del calcolo del punteggio, avviene per semplice calcolo aritmetico.
Blackjack Nel caso di due Assi il gioco doppio consentito ma con diritto a una sola chiamata. Strategia per lo split Gli "split" nella dimensione di gioco britannica non pongono limiti al numero delle divisioni delle carte uguali sebbene venga proibito al giocatore di "splittare" i quattro, i cinque e le figure, che l'istituto di regolamentazione del gioco in Gran Bretagna ha valutato statisticamente come scommesse svantaggiose nei confronti del giocatore. Un buon giocatore di black jack potr all'occorrenza "splittare" i quattro e i cinque ma mai dovrebbe azzardare lo split di due figure. L'assicurazione (insurance) Quando il banchiere si serve un Asso come carta scoperta, vi la possibilit che faccia Black Jack con la seconda carta, quindi i giocatori possono ricorrere all'Assicurazione. La posta dell'Assicurazione equivale alla met della puntata di base (quella sulla casella, per esempio: se il giocatore ha puntato 100 l'Assicurazione vale 50). Nel caso il banco realizzi Black Jack il giocatore perder tutta la puntata iniziale, ma verr risarcito con il doppio del valore dell'assicurazione (2:1): in pratica come se la mano si concludesse con un "pari". Nel caso il banco non realizzi un Black Jack l'assicurazione viene comunque persa indipendentemente dal risultato della mano.
100
Le diverse versioni
In Europa le carte sono scoperte: due per ciascun giocatore, una per il banco. Negli USA inoltre, il banco, oltre alla sua carta scoperta, prende subito l'altra, che rimane per coperta. In vari casin si possono "splittare" (separare) le carte uguali fino a tre volte, eccetto gli assi che possono essere separati solo una volta. Dopo lo split si pu spesso (ma non dappertutto) raddoppiare la puntata. In genere non si possono raddoppiare le mani soft (un asso con una carta che non sia figura). Esistono tuttavia dei casin che permettono di raddoppiare con qualsiasi combinazione iniziale. Tra le varianti di Blackjack troviamo: Classico, Europeo, Spagnolo 21, Vegas Strip, Atlantic City, Blackjack Switch, Multi-mano.
Strategia
La strategia del gioco varia a seconda delle regole locali e del numero dei mazzi usati. Al di l della scelta se partecipare o meno al gioco, e alla posta puntata nella singola mano e alla possibilit di raddoppiare la posta, l'unica scelta lasciata al giocatore quella di stabilire se chiedere un'altra carta (e, se le prime due carte sono uguali, di effettuare uno split, cio di dividere la propria mano in due).
Basic Strategy
Per effettuare i calcoli delle probabilit nelle varie situazioni sono stati utilizzati anche alcuni dei primi computer a disposizione delle universit. In particolare al MIT sono stati realizzati parecchi studi in questo campo. In base a questi calcoli risulta ora possibile, basandosi soltanto sulle carte che si hanno in mano sapere quali sono le probabilit che esca ogni tipo di carta. Basandosi su tali probabilit, stata calcolata una regola (Basic Strategy) che stabilisce quale sia la decisione migliore da effettuare nelle varie circostanze.
Blackjack
101
SU SU SU H H H SU H H H H H H H H H
Dh Dh Dh Dh Dh Dh Dh Dh Dh Dh Dh Dh Dh Dh Dh Dh Dh H H Dh Dh Dh Dh H H H H H H H H H H H H H
Totali soft 2 A,8 A,9 A,7 A,6 A,4 A,5 A,2 A,3 S S H H H 3 S 4 S 5 S 6 S 7 S S H H H 8 S S H H H 9 S H H H H 10 S H H H H A S H H H H
Ds Ds Ds Ds Dh Dh Dh Dh H H Dh Dh Dh H Dh Dh
Coppie 2 A,A 10,10 9,9 8,8 7,7 6,6 5,5 4,4 2,2 3,3 3 4 5 6 7 8 9 10 A
SP SP SP SP SP SP SP SP SP SP S S S S S S S S S S S S S
SP SP SP SP SP
SP SP
SP SP SP SP SP SP SP SP SP SP SP SP SP SP SP SP SP SP SP SP SP H H H H H H H H H H H H H H H
Dh Dh Dh Dh Dh Dh Dh Dh H H H SP SP H H H H H
SP SP SP SP SP SP
Legenda: S = Stand (Stare) H = Hit (Carta) Dh = Double (Raddoppio. Se non permesso, chiedere carta) Ds = Double (Raddoppio. Se non permesso, stare) SP = Split (Divisione) SU = Surrender (Resa. Se non permessa, chiedere carta) Questa strategia si applica con 3 o pi mazzi di carte, il banco sta sui 17 soft, raddoppio su tutte le coppie, raddoppio dopo la suddivisione consentito e blackjack che paga 3:2.
Blackjack
102
Contare le carte
Questi calcoli e questa regola si basano soltanto sulle carte in gioco in quel momento. Tuttavia possibile sviluppare una ulteriore strategia dovuta al fatto che il numero di carte presenti al tavolo da gioco (cio il numero dei mazzi utilizzati) fisso e al fatto che le carte vengono mescolate soltanto all'inizio del gioco e si continua a giocare tra una mano e l'altra senza rimescolare le carte, ma continuando ad utilizzare le carte rimanenti nel mazzo. Le carte vengono rimescolate soltanto quando si raggiunge il cartoncino divisorio che di solito posto intorno alla met del sabot. Tale carta divisoria determina la percentuale di penetrazione del mazzo, cio il numero di carte che verranno distribuite (rispetto alla totalit presente nei mazzi) prima che abbia luogo la mischiata. Pi tale percentuale alta e maggiori saranno i vantaggi per il giocatore.[1] Risulta pertanto possibile, anche se particolarmente difficile, ricordarsi quali carte sono gi uscite e sapere quindi quali rimangono nel mazzo. L'alto numero delle carte utilizzate rende difficile ricordare individualmente le singole carte; risulta per possibile (anche se rimane difficile) ricordare se dal mazzo sono uscite pi carte di basso valore che carte di alto valore e di conseguenza calcolare la probabilit che dal mazzo venga pescata una carta di valore alto o basso. Tale tecnica viene indicata con il nome di contare le carte. Una situazione con un mazzo di carte con pi carte alte che basse favorevole al giocatore e sfavorevole al banco (perch aumenta la probabilit del banco di superare il 21, dal momento che il banco agisce in modo fisso, che consiste nel continuare a prendere un'ulteriore carta fintanto che non supera tutti i giocatori o finch non arriva a 17, e per altri motivi). Questa difficile tecnica permette pertanto di conoscere quale sia il momento pi propizio per effettuare puntate pi alte. Del Black Jack esistono anche alcune versioni per essere giocate tra tutti giocatori, in cui la parte del mazziere viene alternata tra i vari giocatori. All'interno delle case da gioco invece il ruolo del mazziere sempre tenuto dal personale della casa. Il Black Jack uno dei giochi d'azzardo di banco pi diffusi negli Stati Uniti
Stu Ungar
Stu Ungar, dotato di un quoziente intellettivo che lo classificava come "genio", e di una straordinaria memoria fotografica, era in grado di contare tutte le carte presenti in un sabot di blackjack composto da sei mazzi di carte. Nel 1977 scommise 100.000 dollari con Bob Stupack, proprietario di un casin a Las Vegas, che sarebbe riuscito a contare tutte le carte di un sabot di blackjack composto da sei mazzi, indovinando le ultime tre carte. Ungar vinse la scommessa. Stu fu condannato nel 1982 dalla Commissione del New Jersey sul Gioco d'Azzardo, per presumibile imbroglio al tavolo di blackjack in un casin di Atlantic City. Il casin sostenne che Ungar ponesse di nascosto delle fiches extra sulle sue giocate vincenti, per garantirsi una vincita maggiore. Ungar neg sempre con forza l'accaduto. La condanna gli impose di pagare 500 dollari, cifra quasi insignificante per lui, ma allo stesso tempo lo obbligava ad ammettere di barare, cosa che si rifiut sempre di fare: Ungar sosteneva che la sua memoria e l'abilit nel contare le carte (tecnica non illegale) fossero doti naturali, e che per questo non aveva bisogno in alcun modo di barare al tavolo da blackjack. Ungar port la causa in tribunale e vinse, evitando la multa di 500 dollari; dovette, comunque, pagare circa 50.000 dollari in spese legali e di viaggio. La sua reputazione rest intatta ma, nella sua biografia, dir che la stanchezza per i viaggi ed i dibattimenti fu tale da non permettergli di difendere il titolo nelle WSOP. Il suo talento e la sua reputazione erano talmente notevoli da farlo escludere dal gioco nei casin. Era virtualmente impossibilitato a giocare a blackjack sia a Las Vegas che in qualunque altro posto.
Blackjack
103
Curiosit
Il film 21 si basa sullo sfruttamento di questo metodo per ottenere vittorie sicure.
Note
[1] Penetrazione del mazzo (http:/ / www. blackjack-online. bz/ contare-carte/ #penetrazione)
Collegamenti esterni
Guida al Blackjack online (http://www.blackjackonlineaams.com)
Voci correlate
21 (film) Edward O. Thorp
104
105
106
Licenza
107
Licenza
Creative Commons Attribution-Share Alike 3.0 Unported //creativecommons.org/licenses/by-sa/3.0/