Sei sulla pagina 1di 110

PR08A81L1TA' A P3DAL1

PDF generato attraverso il toolkit opensource ''mwlib''. Per maggiori informazioni, vedi [[http://code.pediapress.com/ http://code.pediapress.com/]]. PDF generated at: Wed, 10 Oct 2012 06:21:56 UTC

Indice
Voci
PR08A81L1TA' di Base
Probabilit Spazio campionario Indipendenza stocastica Probabilit condizionata Teorema della probabilit totale 1 1 8 13 14 17 20 20 21 25 26 27 30 34 37 40 44 44 45 48 52 52 55 59 66 70 70 75 84 96

Rapporti agili
Distribuzione discreta Distribuzione discreta uniforme Paradosso del compleanno Distribuzione di Bernoulli Processo di Bernoulli Distribuzione binomiale Distribuzione geometrica Distribuzione ipergeometrica Distribuzione di Pascal

Mangia&Bevi
Variabili dipendenti e indipendenti Valore atteso Varianza

Pignoni
Serie geometrica Teorema binomiale Triangolo di Tartaglia Calcolo combinatorio

Tappe in linea
Poker Problema di Monty Hall Lotto Roulette

Blackjack

98

Note
Fonti e autori delle voci Fonti, licenze e autori delle immagini 104 106

Licenze della voce


Licenza 107

PR08A81L1TA' di Base
Probabilit
Il concetto di probabilit, utilizzato a partire dal '600, diventato con il passare del tempo la base di diverse discipline scientifiche rimanendo tuttavia non univoco. In particolare su di esso si basa una branca della statistica (la statistica inferenziale), cui fanno ricorso numerose scienze sia naturali che sociali.

Cenni storici
I primi studi che portarono successivamente a concetti legati alla probabilit possono essere trovati a met del XVI secolo in Liber de ludo ale di Girolamo Cardano (scritto nel 1526, ma pubblicato solo un secolo e mezzo dopo, nel 1663) e in Sulla scoperta dei dadi di Galileo Galilei (pubblicato nel 1656). In particolare, Galileo spieg come mai, lanciando tre dadi, la probabilit di uscita delle somme 10 e 11 sia pi probabile dell'uscita del 9 e del 12, nonostante entrambi i risultati si ottengano da un uguale numero di combinazioni.[1]

Alcuni dadi a sei facce.

Il problema della ripartizione della posta in gioco nel caso che un gioco d'azzardo debba essere interrotto, venne affrontato da Luca Pacioli, noto anche come Fra Luca dal Borgo, nella sua Summa de arithmetica, geometria, proportioni et proportionalita (pubblicata nel 1494) e successivamente da Tartaglia, per poi essere risolto da Pascal e Fermat. La nascita del concetto moderno di probabilit viene attribuita a Blaise Pascal (1623-1662) e Pierre de Fermat (1601-1665). Il Cavalier de Mr (un accanito giocatore passato alla storia per questo) aveva calcolato che ottenere almeno un 6 in 4 lanci di un dado non truccato era equivalente ad ottenere almeno un doppio 6 in 24 lanci, sempre di un dado non truccato. Tuttavia, giocando secondo tale convinzione, invece di vincere perdeva e scrisse a Pascal lamentando che la matematica falliva di fronte all'evidenza empirica.[2] Da ci scatur una corrispondenza tra Pascal e Fermat in cui inizi a delinearsi il concetto di probabilit nell'accezione frequentista. Pascal annunci nel 1654 all'Accademia di Parigi che stava lavorando sul problema della ripartizione della messa in gioco. E in una lettera del 29 luglio dello stesso anno a Fermat propose la soluzione del problema, affrontato con il metodo per ricorrenza, mentre Fermat utilizzava metodi basati sulle combinazioni. Nel 1657 Christiaan Huygens (1629-1695) scrisse un Libellus de ratiociniis in ludo ale,[3], il primo trattato sul calcolo delle probabilit, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro Pierre de Montmort (1678-1719), che scrisse nel 1708 un Essai d'analyse sur le jeux de hasard, ma anche Jakob Bernoulli e Abraham de Moivre. Nel 1713 viene pubblicato postumo Ars conjectandi di Jakob Bernoulli, dove veniva dimostrato il teorema che porta il suo nome, noto anche come legge dei grandi numeri. Successivamente, de Moivre pervenne ad una prima formulazione, poi generalizzata da Pierre Simon Laplace (1749-1827), del Teorema centrale del limite. La teoria delle probabilit raggiunse cos basi matematicamente solide e, con esse, il rango di nuova disciplina. In essa esercita un ruolo centrale il rapporto tra casi favorevoli e casi possibili e la probabilit un numero intrinsecamente legato ad un evento. Negli anni centrali del XX secolo, tuttavia, prima Bruno de Finetti e poi Leonard Jimmie Savage hanno elaborato una concezione soggettiva della probabilit, secondo cui essa il grado di

Probabilit fiducia che una persona ha nel verificarsi dell'evento. Nello stesso periodo, Andrey Nikolaevich Kolmogorov ha dato inizio alla moderna teoria assiomatica (Grundbegriffe der Wahrscheinlichkeitsrechnung, 1933), ispirandosi alla teoria della misura. Si cos affermata una teoria della probabilit puramente matematica, che generalizza il patrimonio matematico comune alle diverse impostazioni.

Definizioni
In probabilit si considera un fenomeno osservabile esclusivamente dal punto di vista della possibilit o meno del suo verificarsi, prescindendo dalla sua natura. Tra due estremi, detti evento certo (ad esempio: lanciando un dado si ottiene un numero compreso tra 1 e 6) ed evento impossibile (ottenere 1 come somma dal lancio di due dadi), si collocano eventi pi o meno probabili (aleatori). Si usa il linguaggio della teoria degli insiemi: un insieme non vuoto ha come elementi tutti i risultati possibili di un esperimento; l'evento che risulta verificato da un unico risultato (un unico elemento di ) viene detto evento elementare; altri eventi sono sottoinsiemi di costituiti da pi risultati.[4] Gli eventi vengono normalmente indicati con lettere maiuscole. Dati due eventi A e B, si indica con AB la loro unione, ovvero l'evento costituito dal verificarsi dell'evento A oppure dell'evento B. Si indica con AB la loro intersezione, ovvero l'evento costituito dal verificarsi sia dell'evento A che dell'evento B.[5] Se AB = i due eventi A e B vengono detti incompatibili (non possono verificarsi simultaneamente). Il complemento di un evento A rispetto a , \A, detto negazione di A e indica il suo non verificarsi (ovvero il verificarsi dell'evento complementare).

Definizione classica
Secondo la prima definizione di probabilit, per questo detta classica, la probabilit di un evento il rapporto tra il numero dei casi favorevoli all'evento e il numero dei casi possibili, purch questi ultimi siano tutti equiprobabili. Questa definizione spesso attribuita a Pierre Simon Laplace e quindi anche identificata definizione classica di Laplace. Indicando con l'insieme di casi possibili e con ||=n la sua cardinalit, con A un evento e con nA il numero dei casi favorevoli ad A (ad esempio, nel lancio di un dado ={1,2,3,4,5,6}, n = 6, A = "numero pari", nA = 3), la probabilit di A, indicata con P(A), pari a:

Dalla definizione seguono tre regole: 1. la probabilit di un evento aleatorio un numero compreso tra 0 e 1; 2. la probabilit dell'evento certo pari a 1; se A = "numero compreso tra 1 e 6", nA = 6 e nA/n = 1; 3. la probabilit del verificarsi di uno di due eventi incompatibili, ovvero di due eventi che non possono verificarsi simultaneamente, pari alla somma delle probabilit dei due eventi; se A = "numero pari", con P(A) = 1/2, e B= "esce il 3", con P(B) = 1/6, la probabilit che tirando un dado si ottenga un numero pari oppure un 3 :

La definizione classica consente di calcolare effettivamente la probabilit in molte situazioni. Inoltre, una definizione operativa e fornisce quindi un metodo per il calcolo. Presenta tuttavia diversi aspetti negativi non irrilevanti: dal punto di vista formale, una definizione circolare: richiede che i casi possiedano tutti la medesima probabilit, che per ci che si vuole definire; non definisce la probabilit in caso di eventi non equiprobabili; presuppone un numero finito di risultati possibili e di conseguenza non utilizzabile nel continuo.

Probabilit

Definizione frequentista
Per superare tali difficolt, Richard von Mises (1883-1953) propose di definire la probabilit di un evento come il limite cui tende la frequenza relativa dell'evento al crescere del numero degli esperimenti:

La definizione frequentista si applica ad esperimenti casuali i cui eventi elementari non siano ritenuti ugualmente possibili, ma assume che l'esperimento sia ripetibile pi volte, idealmente infinite, sotto le stesse condizioni. Anche tale definizione consente di calcolare la probabilit di molti eventi e da essa si ricavano le stesse tre regole che seguono dalla definizione classica. sufficiente, infatti, sostituire il rapporto tra numero dei casi favorevoli nA e numero dei casi possibili n con il limite del rapporto per n tendente all'infinito. Tuttavia: il "limite" delle frequenze relative non paragonabile all'analogo concetto matematico; ad esempio, data una successione {an}, si dice che a il suo limite se per ogni > 0 esiste un numero naturale N tale che |an - a| < per ogni n > N, e, comunque dato , sempre possibile calcolare N; nella definizione frequentista, invece, N non sempre calcolabile; non tutti gli esperimenti sono ripetibili; ad esempio, ha sicuramente senso chiedersi quale sia la probabilit che vi sia vita su Marte o che tra 50 anni il tasso di natalit in Africa diventi la met di quello attuale, ma in casi simili non possibile immaginare esperimenti ripetibili all'infinito.

Definizione soggettiva
De Finetti e Savage[6] hanno proposto una definizione di probabilit applicabile ad esperimenti casuali i cui eventi elementari non siano ritenuti ugualmente possibili e che non siano necessariamente ripetibili pi volte sotto le stesse condizioni: la probabilit di un evento il prezzo che un individuo ritiene equo pagare per ricevere 1 se l'evento si verifica, 0 se l'evento non si verifica. Al fine di rendere concretamente applicabile la definizione, si aggiunge un criterio di coerenza: le probabilit degli eventi devono essere attribuite in modo tale che non sia possibile ottenere una vincita o una perdita certa. In tal modo possibile ricavare dalla definizione soggettiva le stesse tre regole gi viste. 1. P(A) compresa tra 0 e 1; se infatti fosse negativa si avrebbe un guadagno certo, se fosse maggiore di 1 si avrebbe una perdita certa; 2. P() = 1; se l'evento certo, si ricever sicuramente 1, ma se fosse P() < 1 si avrebbe un guadagno certo, pari a 1 - P(), se invece fosse P() > 1 si avrebbe una perdita certa; 3. se AB = , P(AB) = P(A)+P(B). Si osserva preliminarmente che se gli n eventi A1, A2, ..., An sono incompatibili (non possono presentarsi insieme) e necessari (uno di loro deve necessariamente verificarsi), la somma delle probabilit P(Ai), con i che va da 1 a n, uguale a 1; infatti, se si paga P(Ai) per ciascun evento, se la somma fosse inferiore a 1 si avrebbe un guadagno certo, se fosse superiore si avrebbe una perdita certa. Si considerano poi gli eventi incompatibili A e B e l'evento complemento della loro unione; i tre eventi sono incompatibili e necessari e si ha: Sono per incompatibili anche l'unione di A e B ed il suo complemento: Dalle due uguaglianze segue: se , allora La definizione soggettiva consente quindi di calcolare la probabilit di eventi anche quando gli eventi elementari non sono equiprobabili e quando l'esperimento non pu essere ripetuto. Rimane fondata, tuttavia, sull'opinione di singoli individui, che potrebbero presentare diverse propensioni al rischio. .Basta pensare che molti sarebbero disposti a

Probabilit giocare 1 euro per vincerne 1000, ma pochi giocherebbero un milione di euro per vincerne un miliardo.....

Definizione assiomatica
L'impostazione assiomatica della probabilit venne proposta da Andrey Nikolaevich Kolmogorov nel 1933 in Grundbegriffe der Wahrscheinlichkeitsrechnung (Concetti fondamentali del calcolo delle probabilit), sviluppando la ricerca che era ormai cristallizzata sul dibattito fra quanti consideravano la probabilit come limiti di frequenze relative (cfr. impostazione frequentista) e quanti cercavano un fondamento logico della stessa. Va notato che la definizione assiomatica non una definizione operativa e non fornisce indicazioni su come calcolare la probabilit. quindi una definizione utilizzabile sia nell'ambito di un approccio oggettivista che nell'ambito di un approccio soggettivista. Il nome deriva dal procedimento per "assiomatizzazione" quindi nell'individuare i concetti primitivi, da questi nell'individuare i postulati da cui poi si passava a definire i teoremi. L'impostazione assiomatica muove dal concetto di -algebra, o classe additiva. Dato un qualsiasi esperimento casuale, i suoi possibili risultati costituiscono gli elementi di un insieme non vuoto , detto spazio campionario, e ciascun evento un sottoinsieme di . La probabilit viene vista, in prima approssimazione, come una misura, cio come una funzione che associa a ciascun sottoinsieme di un numero reale non negativo tale che la somma delle probabilit di tutti gli eventi sia pari a 1. Se ha cardinalit finita n o infinita numerabile, l'insieme di tutti i suoi sottoinsiemi, detto insieme delle parti, ha, rispettivamente, cardinalit 2n o la cardinalit del continuo. Tuttavia, se ha la cardinalit del continuo, il suo insieme delle parti ha cardinalit superiore e risulta "troppo grande" perch si possa definire su di esso una misura. Si considerano pertanto i soli sottoinsiemi di che costituiscono una classe additiva , ovvero un insieme non vuoto tale che se un evento A appartiene ad , vi appartiene anche il suo complemento:

se un'infinit numerabile di eventi, A1, A2, ... An, ..., appartiene ad dalla loro unione:

, vi appartiene anche l'evento costituito

Una classe additiva quindi un sottoinsieme delle insieme delle parti di che risulta chiuso rispetto alle operazioni di complemento e di unione numerabile. Si pu aggiungere che una classe additiva chiusa anche rispetto all'intersezione, finita o numerabile, in quanto per le leggi di De Morgan si ha:

(il secondo membro dell'uguaglianza appartiene alla classe in quanto complemento di una unione numerabile dei complementi di insiemi che vi appartengono). Si pongono i seguenti assiomi (che includono le tre regole ricavabili dalle definizioni precedenti): 1. 2. 3. 4. Gli eventi sono sottoinsiemi di uno spazio e formano una classe additiva . Ad ogni evento assegnato un numero reale non negativo P(A), detto probabilit di A. P()=1, ovvero la probabilit dell'evento certo pari ad 1. Se l'intersezione tra due eventi A e B vuota, allora P(AB)=P(A)+P(B).

5. Se An una successione decrescente di eventi e al tendere di n all'infinito l'intersezione degli An tende all'insieme vuoto, allora P(An) tende a zero:[7]

Probabilit La funzione P(A) viene detta funzione di probabilit, o anche distribuzione di probabilit. La terna detta spazio di probabilit. Dagli assiomi si ricavano immediatamente alcune propriet elementari della probabilit: Se P(A) la probabilit di un evento A, la probabilit dell'evento complementare 1-P(A). Infatti, poich l'intersezione di A e del suo complemento vuota e la loro unione , dagli assiomi 3 e 4 si ricava: viene

La probabilit dell'evento impossibile pari a zero. Infatti l'insieme vuoto il complemento di e si ha:

La probabilit di un evento minore o uguale a 1. Infatti, dovendo la probabilit essere non negativa per il secondo assioma, si ha:

Se un evento A incluso in un evento B, allora la sua probabilit minore o uguale a quella di B. Infatti, se B include A pu essere espresso come unione di insiemi disgiunti e si ha:

Teoremi di base
Dai suddetti assiomi derivano alcuni teoremi e concetti fondamentali. Il teorema della probabilit totale consente di calcolare la probabilit dell'unione di due o pi eventi, ovvero la probabilit che si verifichi almeno uno di essi. Essa la somma delle probabilit dei singoli eventi se sono a due a due incompatibili; in caso contrario, alla somma va sottratta la somma delle probabilit delle intersezioni due a due, poi aggiunta la somma delle probabilit delle intersezioni a tre a tre e cos via. Ad esempio, nel caso di tre eventi:

Si dice probabilit condizionata di A dato B, e si scrive P(A|B), la probabilit che l'evento A ha di verificarsi quando si s che B si verificato:

Attraverso tale concetto si perviene al teorema della probabilit composta, che consente di calcolare la probabilit dell'intersezione di due o pi eventi, ovvero la probabilit che essi si verifichino tutti. Nel caso di due eventi (che pu essere generalizzato), si ha:

Nel caso che la probabilit di A dato B, P(A|B), sia uguale a P(A), i due eventi vengono definiti indipendenti stocasticamente (o probabilisticamente) e dalla stessa definizione segue una diversa formulazione della probabilit composta, caso particolare del precedente: P(AB)=P(A)P(B). Il teorema di Bayes consente di calcolare la probabilit a posteriori di un evento Ai, quando si sappia che si verificato un evento E. Se Ai appartiene ad un insieme finito o numerabile di eventi a due a due incompatibili, e se E si verifica allora si verifica necessariamente uno degli eventi di tale insieme (ed uno solo, dato che sono incompatibili), allora, conoscendo le probabilit a priori degli eventi Ai e le probabilit condizionate P(E|Ai) e sapendo che si verificato E, si pu calcolare la probabilit a posteriori di un particolare Ai:

Pi discorsivamente: se si conoscono sia le probabilit a priori delle diverse possibili "cause" di E (ma non si sa per effetto di quale di esse E si verificato), sia le probabilit condizionate di E data ciascuna delle cause, possibile calcolare la probabilit che E si sia verificato per effetto di una particolare causa.

Probabilit

Difficolt nell'utilizzo delle probabilit


Quante insidie vi siano nei ragionamenti sulle probabilit - al di l delle difficolt nella comprensione di cosa possa essere la probabilit - viene messo in evidenza da alcuni cosiddetti paradossi, dove in realt si tratta di domande con risposte apparentemente illogiche: nel paradosso delle tre carte l'errore consiste solitamente nel non avere identificato correttamente quali siano gli eventi: i lati delle carte e non le carte stesse nel paradosso dei due bambini l'errore consiste solitamente nel non distinguere eventi diversi, ovvero nel considerare un unico evento quelli che in realt sono due nel problema di Monty Hall la difficolt consiste anzitutto nell'accettare l'idea che una nuova informazione pu modificare le probabilit di eventi, senza che il mondo reale cambi, l'altro errore consiste nel non analizzare completamente e dunque valutare correttamente la nuova informazione acquisita. Una ulteriore fonte di confusione pu essere data dal presupporre (sbagliando) che il fatto che un evento abbia probabilit 1 implica che esso avvenga sempre (invece che quasi certamente).

Probabilismo ontico
Il probabilismo ontico una teoria ontologica in base alla quale ci che necessario rappresenta il massimo delle probabilit e ci che casuale il minimo delle probabilit. L'alternanza dialettica necessit/caso si d quindi in una scala astratta, ma matematicamente calcolabile per approssimazione caso per caso con adeguati algoritmi, dove la casualit l'estrema improbabilit e la necessit l'estrema probabilit.

Note
[1] Il 9 si ottiene con le sei combinazioni (1,2,6), (1,3,5), (1,4,4), (2,2,5), (2,3,4), (3,3,3), il 10 con le sei combinazioni (1,3,6), (1,4,5), (2,2,6), (2,3,5), (2,4,4), (3,3,4), l'11 con (1,4,6), (2,3,6), (2,4,5), (1,5,5), (3,3,5), (3,3,4) e il 12 con (1,5,6), (2,4,6), (2,5,5), (3,4,5), (3,3,6), (4,4,4). Tuttavia, mentre una combinazione di tre numeri uguali pu presentarsi in un solo modo, una con due numeri uguali pu presentarsi in tre modi diversi, una con tre numeri diversi in sei modi diversi. Si pu quindi ottenere il 10 e l'11 in 27 modi (6+6+3+6+3+3), il 9 e il 12 in 25 modi (6+6+3+3+6+1). [2] Secondo il Cavaliere, essendo 1/6 la probabilit del 6 con un dado, in quattro lanci la probabilit sarebbe 4 1/6 = 2/3; la probabilit del doppio 6 in due lanci invece 1/36 e, per arrivare a 2/3, occorrono 24 lanci: 24 1/36 = 2/3. In realt la probabilit di ottenere almeno un 6 si calcola meglio a partire dall'evento complementare, "nessun 6 in quattro lanci", che (5/6)4, e sottraendo questa da 1, ottenendo il 51,8%; nello stesso modo si calcola che la probabilit di almeno un doppio 6 in 24 lanci 1 (35/36)24 = 49%. [3] La ristampa della traduzione inglese disponibile in http:/ / www. stat. ucla. edu/ history/ huygens. pdf. [4] Ad esempio, nel lancio di un dado l'insieme costituito dai sei risultati {1,2,3,4,5,6}; l'evento "esce il 3" rappresentato dall'insieme {3}, l'evento "esce un numero pari" rappresentato dall'insieme {2,4,6}. [5] Ad esempio, restando al lancio di un dado, se A = {2} e B = {4,6}, l'evento AB {2,4,6}, ovvero "esce un numero pari". Se invece A = "esce un numero pari" e B = "esce un numero minore o uguale a 3", AB = {2}. [6] L'impostazione soggettiva era stata anticipata da Ramsey nel 1926. [7] Una successione di insiemi detta decrescente se ciascun insieme include il successivo. V. Limite insiemistico.

Probabilit

Bibliografia
Remo Cacciafesta, Lezioni di calcolo delle probabilit, Veschi, Roma, 1983 Giorgio Dall'Aglio, Calcolo delle probabilit, Zanichelli, Bologna, 2003 Domenico Piccolo, Statistica, Il Mulino, Bologna, 1998, Parte Seconda, Cap. VIII, pp. 215-291 Devlin Keith, La lettera di Pascal. Storia dell'equazione che ha fondato la teoria della probabilit, Rizzoli, 2008

Voci correlate
Teoria della probabilit Probabilismo Evento Teorema di Cox Campionamento statistico Logica della diagnosi clinica Legge dei grandi numeri Kolmogorov. Bruno de Finetti Meccanica quantistica Indeterminismo Statistica Statistica inferenziale Storia della statistica Calcolo combinatorio

Collegamenti esterni
(EN) Probability and Statistics EBook (http://wiki.stat.ucla.edu/socr/index.php/EBook) (FR) Journal sur l'histoire des probabilits et des statistiques (http://www.jehps.net/) et site associ (articles, bibliographie, biographies)

Spazio campionario

Spazio campionario
Nel calcolo delle probabilit lo spazio campionario o insieme universo (generalmente indicato dalle lettere S, o U) l'insieme dei possibili risultati di un esperimento casuale. Ad esempio, nel lancio di un dado lo spazio campionario l'insieme {1,2,3,4,5,6}, nel lancio di una moneta pu essere l'insieme {testa, croce}, e cos via. Lo spazio campionario pu anche avere infiniti elementi: se, ad esempio, siamo interessati allo studio della caduta di una pallina su un pavimento, lo spazio campionario corrisponder all'insieme dei punti del pavimento, considerati tutti come possibili punti di impatto della pallina.

Definizioni formali
Eventi
Dato un esperimento casuale detto evento elementare Si dice evento un qualsiasi sottoinsieme raggruppamento di uno o pi eventi elementari. L'evento corrispondente all'intero spazio campionario certo. L'evento corrispondente all'insieme vuoto (costituito da nessun evento elementare) detto evento impossibile. Dato uno spazio campionario associato a un esperimento, pu darsi che l'analisi da condurre non coinvolga tutti i possibili eventi ma solo una parte di essi. Gli eventi che hanno un ruolo in una specifica analisi vengono detti eventi di interesse. (costituito da tutti gli eventi elementari) detto evento uno dei possibili esiti dellesperimento stesso. . Dunque un evento non altro che un dello spazio campionario

Sigma-algebra
Sia uno spazio arbitrario purch non vuoto. Una famiglia ) detta di eventi di (cio una qualsiasi collezione di sottoinsiemi 1. 2. 3. ovvero: (1) l'evento certo un evento (come dire: "succede qualcosa"); (2) la negazione di un qualsiasi evento essa stessa un evento. (3) qualsiasi unione di eventi un evento (per esempio l'evento "si verifica E o F" l'unione degli eventi "si verifica E" e "si verifica F"). La propriet 1. del tutto equivalente a: 1'. La propriet 3. del tutto equivalente a: 3'. cio una sigma-algebra anche chiusa rispetto a intersezioni numerabili. La sigma-algebra il metodo pi appropriato per descrivere un insieme di eventi dato un insieme di eventi elementari. Essa una generalizzazione del concetto di algebra di insiemi, che richiede solo la stabilit per unioni finite. -algebra (sigma-algebra) se contiene ed chiusa rispetto alle operazioni

insiemistiche di unione numerabile e complementazione, ovvero se soddisfa le seguenti tre propriet:

Spazio campionario Tuttavia se si utilizzasse il concetto di algebra di insiemi per descrivere il concetto di evento si incorrerebbe nello spiacevole inconveniente di non considerare eventi dei fenomeni quali "prima o poi piove". Infatti questo evento traducibile in linguaggio insiemistico come "piove oggi" oppure "piove domani" oppure " piove dopodomani" oppure ...; ovvero l'evento descritto dall'unione di infiniti eventi, , quindi , da cui deriva che per la

definizione di algebra potrebbe essere

non sarebbe un evento che viene considerato nel

nostro modello, il che sembra piuttosto deludente. Per ovviare a ci si introduce la nozione di sigma-algebra sopra esposta. Dato uno spazio arbitrario con e una famiglia di suoi sottoinsiemi possibile, sempre e in vari modi, estendere la viene indicata famiglia sino a renderla una sigma-algebra. La pi piccola sigma-algebra contenente la famiglia e detta sigma-algebra generata dalla famiglia. Le sigma-algebre sono un concetto ampiamente trattato in teoria della misura.

Spazio campionario
Linsieme degli eventi elementari, visti come punti, viene detto spazio campionario. Una sigma-algebra costruita su di esso viene detta spazio degli eventi.

Osservazioni
Nell'insieme delle parti di un sottoinsieme dellinsieme Un evento un sottoinsieme di gli elementi sono i sottoinsiemi di delle parti di . . Quindi una famiglia di sottoinsiemi di

e non un suo elemento. Quindi un evento, in quanto insieme, non appartiene priva di significato) ma incluso nello spazio campionario. Di , insieme , in quanto punto, appartiene allo spazio campionario e l'evento

allo spazio campionario (e la scrittura converso un evento elementare

costituito da un singolo punto (e perci detto singoletto), incluso nello spazio campionario. Se la cardinalit di finita allora la -algebra pu coincidere con linsieme delle parti ma non detto che sia necessario prendere una famiglia di eventi cos grande. Ovviamente nulla vieta di prendere come spazio degli eventi proprio linsieme delle parti. Questo perch nel caso di cardinalit finita sempre possibile prendere come -algebra lintero insieme delle parti senza rischiare di incappare in eventi ai quali non possibile attribuire una probabilit . Se invece la cardinalit di infinita non detto che sia possibile definire . In tale caso

pu darsi che scegliere linsieme delle parti come sigma-algebra non sia una scelta felice: in virt della terza propriet delle sigma-algebre, quando passiamo alla probabilit vengono coinvolte delle serie che non detto convergano. In generale si cerca sempre di scegliere una sigma-algebra che sia piccola: pi piccola meno problemi crea. Il fatto che sia piccola e non coincidente con lintero insieme delle parti non vuol dire che alcuni eventi elementari restino esclusi infatti, per definizione di sigma-algebra, possiamo dire che . In altri termini le sigma-algebre definite su sono una copertura di .

Spazio campionario

10

Tipi di spazio campionario


La scelta dello spazio campionario per un determinato fenomeno aleatorio deve in qualche modo equilibrare la necessit di essere fedele alla realt fisica esaminata con la convenienza matematica (vedi osservazioni). In pratica, la maggior parte degli spazi campionari rientra nelle seguenti tipologie:

Finito
I pi semplici esperimenti aleatori consistono nel lancio di una moneta o di un dado, o nell'estrazione di una pallina da un'urna. In ogni caso lo spazio campionario sar un insieme costituito da un numero finito di eventi elementari. In genere, ma non necessariamente, essi saranno rappresentati dai primi n numeri interi: piuttosto che .

Numerabile
Molti importanti modelli probabilistici, come ad esempio quello poissoniano utilizzato per contare il numero di accadimenti che si verificano in un intervallo di tempo fissato, si basano su uno spazio campionario numerabile e coincidente, quindi con tutto o con .

Continuo
Solitamente il modello continuo per eccellenza la retta reale, come nel caso degli errori di misura nelle osservazioni scientifiche il cui studio sistematico stato avviato da Karl Friedrich Gauss nel 1809. Altri modelli, utili per rappresentare i tempi di vita di componenti elettronici, hanno come modello la semiretta reale positiva.

Vettoriale finito
Spesso un esperimento costituito da una sequenza finita di altri esperimenti come, ad esempio, il lancio di un dado ripetuto n volte. In tale caso, se lo spazio campionario del singolo lancio, lo spazio campionario complessivo sar dato dal prodotto . Lo spazio campionario del singolo esperimento potr essere sia finito che numerabile che continuo. cartesiano dei singoli spazi:

Vettoriale numerabile
Come nel caso vettoriale finito con l'unica differenza che la sequenza dei singoli esperimenti non finita ma numerabile dunque: . Tale modello compare, ad esempio, nelle analisi di qualit dei pezzi uscenti da una linea di produzione con o nella passeggiata aleatoria (random walk) con .

Funzionale
In alcuni esperimenti aleatori della fisica, gli esiti dell'esperimento sono i percorsi o le traiettorie di una particella in un certo intervallo di tempo. Quindi ogni esito, in questo caso, una funzione. Tale modello emerge insistentemente nei processi stocastici.

Spazio campionario

11

Esempi
Un foglio in pezzi
Prendiamo un qualsiasi foglio: nella sua interezza rappresenter il nostro spazio campionario. Le singole particelle del foglio corrisponderanno ai punti dello spazio campionario ovvero agli eventi elementari. Se ora strappiamo in pezzi il foglio, ognuno dei pezzi rappresenter un evento che, in quanto aggregato di particelle, sar un sottoinsieme del foglio originale e, in quanto pezzo, sar un elemento dell'insieme dei pezzi del foglio (l'insieme delle parti). Osserviamo che un foglio strappato in pezzi costituisce una partizione del foglio originale. I pezzi in cui abbiamo strappato il foglio non esauriscono tutto l'insieme delle parti ma ne costituiscono solo una sua famiglia. Tale famiglia pu essere estesa ad una sigma-algebra aggiungendo ad essa anche tutte le possibili composizioni ottenibili con le operazioni insiemistiche di unione numerabile, intersezione numerabile e complementazione. Ad esempio dovremo aggiungere alla famiglia l'unione di tutti i pezzi (l'intero foglio). Accanto ad ogni pezzo della famiglia dovremo aggiungere il suo complementare (ovvero l'unione di tutti gli altri pezzi). E via dicendo. Notiamo che questo procedimento ci conduce ad una sigma-algebra ma non all'insieme delle parti. Per arrivare all'insieme delle parti dovremmo ripetere il procedimento anche per tutti gli altri modi in cui possiamo strappare il foglio originale.

Lancio di un dado equilibrato


Consideriamo un esperimento che consiste nel lanciare un comune dado (un cubo le cui facce sono numerate da 1 a 6) su una superficie piana dotata di attrito e delimitata da pareti atte a contenere il movimento del dado (ovvero una scatola!) e supponiamo che il dado sia bilanciato (ovvero che la sua distribuzione di massa sia uniforme e non privilegi una faccia rispetto alle altre). Gli esiti di tale esperimento sono misurabili. Infatti, spesa la sua energia, il dado si fermer inesorabilmente poggiando sulla superficie una delle sue facce e mostrando, quindi, all'esperimentatore la faccia opposta a quella di appoggio. Il numero impresso sulla faccia esposta potr essere utilizzato per rappresentare l'esito dell'esperimento che, complessivamente, avr sei possibili esiti distinti (tanti quanti le facce del dado). Codificheremo tali esiti con i primi sei numeri interi. Allora gli eventi elementari saranno i primi sei numeri interi e lo spazio campionario associato a questo esperimento sar che ha cardinalit evidentemente finita. Poich ogni evento un sottoinsieme dello spazio campionario ovvero un elemento dell'insieme delle parti di sono possibili eventi tra i quali, ovviamente, l'insieme vuoto, l'intero e via dicendo. , i sei singoletti, le ci

possibili

coppie, i pari

La scelta della -algebra da usare dipende dagli obiettivi. Se, ad esempio, siamo interessati a calcolare la probabilit che esca un numero pari, gli unici eventi di interesse saranno A=" uscito un pari" e il suo complementare. La pi piccola sigma-algebra contenente l'evento A sar: . Non l'unica ma, tra tutte le sigma algebre contenenti l'evento A, la pi piccola dunque quella che genera meno lavoro e meno problemi.

Spazio campionario

12

Sigma-algebra di Borel su
Questo esempio non intuitivo ma qui riportato perch celebre, perch riveste un ruolo fondamentale in gran parte della teoria della probabilit e perch nonostante la sua semplicit ( sufficiente investigare su un numero infinito di lanci di una moneta per incappare in una sigma-algebra di Borel) ha messo in crisi la teoria classica della probabilit richiedendone la rivisitazione assiomatica di Kolmogorov. Sia intervalli di l'intervallo reale unitario aperto a sinistra e chiuso a destra. Sia, inoltre , della forma con . . la famiglia degli

Consideriamo, inoltre, tutte le unioni finite e disgiunte di tali intervalli: Aggiungiamo infine anche l'insieme vuoto. La famiglia

cos ottenuta nota come algebra di Borel. Nonostante tale famiglia sia assai numerosa, ancora non che, in virt

abbiamo a che fare con una sigma-algebra. Ad esempio sono esclusi dalla famiglia i singoletti famiglia:

della propriet 3', dovrebbero invece essere presenti in quanto ognuno intersezione numerabile di insiemi della

A questo punto facile immagine Emile Borel, colto da sensi di colpa per aver abbandonato il piano astratto e aver tentato di costruire la sua sigma-algebra elemento per elemento, si rifugia in un buio sgabuzzino urlando da dietro la porta: "la sigma-algebra esiste e non banale!" (ovvero non coincide con l'insieme delle parti di ). Che non coincida con lo ha gi appurato Borel e noi abbiamo appena visto che i singoletti appartengono a non contenuto in e quindi dare conforto all'ipotesi ma non a . Per scoprire un sottoinsieme di

del disperato Borel bisogner attendere Giuseppe Vitali.

Costruzione di una sigma-algebra


Riprendiamo ancora l'esempio del lancio di un dado. Abbiamo gi visto che se siamo interessati a valutare la probabilit che esca pari dovremo considerare l'evento A={ uscito pari}. Ma A preso singolarmente non basta. Per completare la nostra partizione baster aggiungere ad A il suo complementare. Ora una partizione. Qualcuno potrebbe ribattere: ma anche una partizione. E anche

lo . Certo. Ma la prima non ci serve a nulla perch non distingue tra pari e dispari mentre la seconda distingue troppo: che ci importa sapere se il dispari uscito 1 o 3 o 5 ? la migliore partizione rispetto al problema in esame. Tra l'altro questo, come abbiamo gi visto, uno dei rarissimi casi in cui costruire la sigma-algebra non reato (o tentato suicidio). Se, per qualche motivo, dobbiamo esaminare tutte e sei le possibili configurazioni allora la partizione che dovremo costruire sar la pi fine possibile: . Una volta assegnato questo spazio campionario, per generare la sua sigma-algebra si considerano tutte le possibili unioni tra i suoi elementi e i loro complementari (ragionamento valido per ogni insieme finito). Ad esempio quindi la sigma-algebra conterr: Il grosso vantaggio nel lavorare solo con la giusta partizione diventa chiaro in fase di assegnazione di una misura di probabilit.

Spazio campionario

13

Bibliografia
P. Halmos (1950): Measure theory, D. van Nostrand and Co. P. Billingsley (1995): Probability and Measure, John Wiley & Sons A. F. Karr (1993): Probability, Springer-Verlag

Voci correlate
Misura di probabilit Spazio di probabilit Variabile casuale

Indipendenza stocastica
Nell'ambito del calcolo delle probabilit, l'indipendenza stocastica di due eventi A e B si ha quando il verificarsi di uno non modifica la probabilit di verificarsi dell'altro, ovvero quando la probabilit condizionata P(A | B) oppure P(B | A) pari rispettivamente a P(A) e P(B) P(A | B) = P(A) P(B | A) = P(B) queste due condizioni si possono sintetizzare con la formula P(A B) = P(A) P(B). In altre parole, dire che due eventi sono indipendenti tra loro significa dire che il fatto di sapere che uno di essi si verificato non modifica la valutazione di probabilit sul secondo. Per esempio, il fatto di ottenere "1" quando viene lanciato un dado ed il fatto di ottenere ancora un "1" la seconda volta che il dado viene lanciato, sono indipendenti. Analogamente, quando si afferma che due variabili casuali X e Y definite sullo stesso spazio campionario H sono indipendenti si afferma che conoscere qualcosa riguardo al valore di una di esse non apporta alcuna informazione circa il valore dell'altra. Per esempio, il numero che appare sulla faccia superiore di un dado la prima volta che viene lanciato e il numero che appare la seconda volta sono indipendenti. Formalmente, questo si verifica quando per ogni coppia di eventi B, B' risulta P(X B Y B' ) = P(X B) P (Y B' ) Equivalentemente ci si verifica se, detta F la funzione di ripartizione della variabile congiunta (X,Y) e fX, fY le due funzioni di ripartizione marginali, allora per ogni x,y vale che F(x,y)=fX(x) fY(y) Condizioni analoghe si trovano per la funzione di densit di probabilit e la funzione di probabilit, se X rispettivamente una variabile casuale continua o una variabile casuale discreta: f(x,y)=fX(x) fY(y) e p(x,y)=pX(x) pY(y)

Indipendenza stocastica

14

Generalizzazioni
Nell'ambito della teoria della probabilit, la nozione di indipendenza stocastica pu essere generalizzata ampiamente. Sia uno spazio di probabilit, e sia una famiglia arbitraria (finita o non finita) di -algebre contenute in : di . Esse si dicono indipendenti rispetto a , e per ogni sottoinsieme . Questa nozione si riduce alla precedente nel caso in cui la famiglia di -algebre sia formata da due soli elementi e , dove, dato un insieme misurabile , la -algebra da esso generata: . Questa estensione, ampiamente usata nella teoria dei processi stocastici, trova la sua motivazione nel fatto che l'indipendenza stocastica di una famiglia di -algebre, non in generale equivalente all'indipendenza dei suoi elementi a due a due. Ad esempio, dati tre insiemi , sapendo che e , e , e sono indipendenti, non se ne pu dedurre che: . , accade: se, per ogni sottoinsieme finito

Voci correlate
probabilit probabilit condizionata Mark Kac Hugo Steinhaus Paradosso del compleanno

Probabilit condizionata
In teoria della probabilit la probabilit condizionata di un evento A rispetto a un evento B la probabilit che si verifichi A, sapendo che B verificato. Questa probabilit, indicata o , esprime una "correzione" delle aspettative per A, dettata dall'osservazione di B. (Ha senso solo se B ha una probabilit non nulla di verificarsi.)

Esempio
Per esempio, la probabilit di ottenere "4" con il lancio di un comune dado (evento A) ha probabilit P(A)=1/6 di verificarsi. Sapendo per che il risultato del lancio un numero tra "4", "5" e "6" (evento B), la probabilit di A diventa .

Probabilit condizionata

15

Definizione
La probabilit di A condizionata da B , dove la probabilit congiunta dei due eventi, ovvero la probabilit che si verifichino entrambi. di misura P, ogni evento B eredita una struttura di spazio . Se ), allora riscalando a uno spazio probabilizzato ( si ottiene lo spazio

In termini pi rigorosi, dato uno spazio misurabile misurato su , con

, restringendo gli insiemi misurabili a quelli contenuti in B, ed induce una nuova misura ) e B non trascurabile (

probabilizzato

delle probabilit condizionate da B.

Propriet
La formula della probabilit condizionata permette di descrivere la probabilit congiunta come

Ovvero, la probabilit che si verifichino sia A che B pari alla probabilit che si verifichi B moltiplicata per la probabilit che si verifichi A supponendo che B sia verificato. Due eventi A e B sono indipendenti quando vale una delle tre equazioni equivalenti ; ; .

Casi particolari
Se A e B sono eventi disgiunti, cio se Se l'evento A implica l'evento B, cio se (A implica B); (B necessario per A). , le loro probabilit condizionate sono nulle: sapendo che uno , allora la loro intersezione A, per cui e: dei due eventi si verificato, impossibile che si sia verificato anche l'altro.

Nel caso di una misura di probabilit uniforme su uno spazio finito, questa formula per P(A|B) esprime la definizione classica di probabilit come "casi favorevoli (A) su casi possibili (B)". Invece, per P(B|A) otteniamo il valore 1 che, per un numero finito di valori lo stesso Bayes interpret in senso lato come la certezza che il tutto. sia condizionato dalla parte.

Probabilit condizionata

16

Ulteriori definizioni
La speranza condizionata di una variabile aleatoria X ad un evento B la speranza di X calcolata sulle probabilit (condizionate da B). La probabilit di un evento A pu essere condizionata da una variabile aleatoria discreta X, originando una nuova variabile aleatoria, , che per X=x assume il valore .

Applicazioni
Il teorema di Bayes esprime l'uguaglianza simmetrica probabilit composta come . Questo teorema alla base dell'inferenza bayesiana in statistica, dove P detta "probabilit a priori di B" e PB "probabilit a posteriori di 'B". del teorema della

Paradossi
Molti paradossi sono legati alla probabilit condizionata e derivano sia da un'errata formulazione del problema sia dalla confusione di P(A|B) con P(A) o con P(B|A). Esempi particolari sono il paradosso delle due buste, il paradosso dei due bambini, il problema di Monty Hall e il paradosso di Simpson.

Voci correlate
Probabilit congiunta Indipendenza (probabilit) Inferenza bayesiana Teorema di Bayes Teorema della probabilit composta Valore atteso condizionato

Bibliografia
Giuseppe Zwirner, L. Scaglianti, Itinerari nella matematica vol.1, Padova, CEDAM, 1989, ISBN 88-1316794-6

Teorema della probabilit totale

17

Teorema della probabilit totale


Il teorema della probabilit totale consente di calcolare la probabilit che si verifichi almeno uno di due o pi eventi, ovvero la probabilit dell'unione di essi. Il teorema ha due diverse formulazioni, secondo che si considerino solo eventi a due a due incompatibili o eventi qualsiasi.

Eventi incompatibili
Dato un insieme finito o numerabile di eventi a due a due incompatibili, la probabilit dell'unione di tutti gli eventi uguale alla somma delle probabilit degli eventi. Questa una prima formulazione del teorema, che si dimostra come segue. Nel caso di due eventi A e B incompatibili, se cio AB = , si applica il quarto assioma della probabilit:

Si dimostra per induzione che ci vale anche per un insieme finito di eventi An a due a due incompatibili, ovvero che:

Essendo la probabilit una funzione di insieme continua, essendo quindi:

il risultato pu essere esteso ad unioni numerabili di eventi:

Infatti: dalla definizione di limite per successioni di insiemi crescenti si ha: ; dalla continuit delle funzione di probabilit segue:

Teorema della probabilit totale

18

Esempio
Se si lancia un dado, e si indicano con A1...A6 gli eventi "ottengo 1", ..., "ottengo 6", gli eventi sono a due a due incompatibili ed hanno ciascuno probabilit pari a 1/6. La probabilit dell'evento "ottengo un numero maggiore di 4" :

Eventi qualsiasi
Dato un insieme finito di eventi, la probabilit dell'unione di tutti gli eventi uguale a:

dove ciascuna somma

calcolata per tutti gli

possibili sottoinsiemi di

elementi dell'insieme

. questa la formulazione pi generale del teorema, che vale anche per eventi non incompatibili e si dimostra come segue. Se gli eventi considerati non sono a due a due incompatibili, si deve tenere conto delle loro intersezioni. In particolare, la probabilit di due eventi A e B, in generale, pari alla somma delle singole probabilit P(A) e P(B) diminuita della probabilit della loro intersezione:

Infatti, scomponendo sia AB che B in unioni di insiemi disgiunti ed applicando ad esse il quarto assioma, si ha:

Sottraendo membro a membro le due equazioni si ha:

da cui segue la formula data sopra. Con pi di due eventi, alla somma delle probabilit di ciascuno si deve sottrarre la somma delle loro intersezioni due a due, poi aggiungere la somma delle loro intersezioni tre a tre e cos via. Nel caso di tre eventi A, B e C, si ha:

La formula per il caso di n eventi si dimostra per induzione (v. anche il principio di inclusione-esclusione).

Teorema della probabilit totale Il teorema nella sua forma generale non pu essere esteso a unioni numerabili di eventi. In tali casi risulta applicabile solo la disuguaglianza di Boole.

19

Esempi
Se si lanciano due dadi e si indicano con A1 l'evento "il primo dado d 6", con A2 l'evento "il secondo dado d 6", l'evento "almeno un dado d 6" unione di due eventi non incompatibili, in quanto pu verificarsi anche la loro intersezione ("entrambi i dadi danno 6"). La probabilit di ottenere almeno un 6 quindi:

In un ristorante vi sono 3 sale ed entrano 10 persone, ciascuna delle quali sceglie a caso una sala. Qual la probabilit che almeno una delle sale resti vuota? Le persone possono scegliere le sale in 310 modi diversi (numero delle disposizioni con ripetizione di 3 elementi di classe 10); vi sono 210 modi di lasciar vuota una sala (le 10 persone si dispongono solo in due sale). Indicando con Ai l'evento "rimane vuota la i-esima sala", le probabilit sono:

La probabilit dell'evento "rimane vuota una sala" :

in quanto potrebbero restarne vuote due (un solo caso possibile: tutti nell'altra).

Voci correlate
Probabilit Principio di inclusione ed esclusione Probabilit condizionata Indipendenza stocastica Teorema della probabilit composta Teorema della probabilit assoluta Teorema di Bayes Legge delle aspettative iterate Legge della varianza totale

20

Rapporti agili
Distribuzione discreta
In teoria delle probabilit una distribuzione discreta una distribuzione di probabilit definita su un insieme discreto S. In particolare questo insieme pu essere finito oppure numerabile (i suoi elementi possono essere elencati tramite i numeri naturali: ). Una variabile aleatoria (o stocastica, o casuale dall'inglese random) discreta se segue una distribuzione di probabilit discreta. Se l'insieme S contenuto nei numeri reali, si pu definire la funzione di ripartizione della distribuzione, che assume valori su S; se viene rappresentata su tutti numeri reali allora acquista la forma di una funzione a gradini, costante sugli intervalli semiaperti . Particolari distribuzioni discrete di probabilit sono: la distribuzione discreta uniforme, la distribuzione binomiale, la distribuzione di Bernoulli, la distribuzione di Poisson (o degli eventi rari), la distribuzione geometrica, la distribuzione di Pascal, la distribuzione ipergeometrica, la distribuzione di Wilcoxon, la distribuzione di Benford (o della prima cifra), la distribuzione del test di Kolmogorov-Smirnov, la distribuzione di Spearman, la distribuzione di Rademacher. e .

Un caso particolare la distribuzione degenere su un solo elemento:

Anche le distribuzioni su pi dimensioni (multivariate) possono essere discrete, come la distribuzione multinomiale.

Tabella delle distribuzioni discrete comuni


La tabella seguente riassume le propriet delle distribuzioni discrete pi comuni, si intende e

Distribuzione discreta

21

Distribuzione Bernoulliana Uniforme

Parametri

Supporto

Funzione di densit

Valore atteso

Varianza

Geometrica

Binomiale

di Pascal

Ipergeometrica

Voci correlate
Distribuzione di probabilit Funzione di ripartizione

Distribuzione discreta uniforme


Distribuzione discreta uniforme su elementi in progressione aritmetica Funzione di distribuzione discreta

Distribuzione discreta uniforme

22
Funzione di ripartizione

Parametri

estremi della progressione elementi nella progressione

Supporto Funzione di densit Funzione di ripartizione Valore atteso Mediana Moda Varianza Skewness Curtosi Entropia Funz. Gen. dei Momenti Funz. Caratteristica su per

In teoria delle probabilit una distribuzione discreta uniforme una distribuzione di probabilit discreta che uniforme su un insieme, ovvero che attribuisce la stessa probabilit ad ogni elemento dell'insieme discreto S su cui definita (in particolare l'insieme dev'essere finito). Un esempio di distribuzione discreta uniforme fornito dal lancio di un dado equilibrato: ognuno dei valori 1, 2, 3, 4, 5 e 6 ha eguale probabilit 1/6 di verificarsi. Questa distribuzione di probabilit quella che fornisce la classica definizione di probabilit "casi favorevoli su casi possibili": la probabilit di un evento data dal rapporto tra le cardinalit dei due insiemi,

Distribuzione discreta uniforme

23

Definizione
La distribuzione discreta uniforme su un insieme finito S la distribuzione di probabilit tutti gli elementi di S la stessa probabilit p di verificarsi. In particolare, dalla relazione che attribuisce a

seguono per ogni elemento per ogni sottoinsieme , .

Progressione aritmetica
Spesso viene considerata la distribuzione discreta uniforme su un insieme S i cui elementi sono in progressione aritmetica, ovvero del tipo . In questo caso l'insieme S pu essere descritto come un insieme di n elementi in progressione aritmetica, da a a b, con elementi della forma , con e .

In questo modo la distribuzione discreta uniforme diventa una sorta di approssimazione della distribuzione continua uniforme sull'intervallo

Caratteristiche
La distribuzione Inoltre ha varianza , curtosi , funzione generatrice dei momenti simmetrica rispetto al punto medio del segmento . Una variabile . aleatoria U con questa distribuzione ha quindi speranza e indice di asimmetria

entropia (il massimo valore possibile per una distribuzione su n elementi).

Distribuzione discreta uniforme

24

Altre distribuzioni
Il parallelo della distribuzione discreta uniforme tra le distribuzioni di probabilit continue la distribuzione continua uniforme: una distribuzione definita su un insieme continuo S, che attribuisce la stessa probabilit a due intervalli della stessa lunghezza, contenuti in S, ovvero la cui densit di probabilit assume un valore costante su S.

Distribuzione su due valori


La distribuzione di Bernoulli entrambi probabilit . Ogni altra distribuzione discreta uniforme su due valori a e b pu essere espressa tramite una variabile aleatoria X con distribuzione di Bernoulli , considerando la variabile aleatoria . La distribuzione discreta uniforme sui due valori 1 e -1 anche detta distribuzione di Rademacher, dal matematico tedesco Hans Rademacher; al pari di altre distribuzioni su due valori, viene utilizzata nel metodo bootstrap per il ricampionamento dei dati. con una distribuzione discreta uniforme: i due valori 0 e 1 hanno

Voci correlate
Distribuzione di probabilit Distribuzione discreta Distribuzione continua uniforme Progressione aritmetica

Collegamenti esterni
(EN) Eric W. Weisstein, Distribuzione discreta uniforme [1] su MathWorld.

Note
[1] http:/ / mathworld. wolfram. com/ DiscreteUniformDistribution. html

Paradosso del compleanno

25

Paradosso del compleanno


Il paradosso[1] del compleanno (o problema del compleanno) un paradosso di teoria della probabilit definito nel 1939 da Richard von Mises. Il paradosso afferma che la probabilit che almeno due persone in un gruppo compiano gli anni lo stesso giorno largamente superiore a quanto potrebbe dire l'intuito: infatti gi in un gruppo di 23 persone la probabilit circa 0,51; con 30 persone essa supera 0,70, con 50 persone tocca addirittura 0,97, anche se per arrivare all'evento certo occorre considerare un gruppo di almeno 367 persone (per il principio dei cassetti e la possibilit di anni bisestili).

Il grafico mostra l'andamento di P(p) al crescere del numero di persone

Per effettuare il calcolo, si ricorre alla formula per la probabilit degli eventi indipendenti: per rendere pi semplice il calcolo si assume che gli anni siano tutti di 365 giorni e che i compleanni siano equiprobabili, anche se ci non esatto[2]. Aggiungere il giorno bisestile peggiora leggermente la probabilit, ma in compenso il fatto che i compleanni non siano equiprobabili la alza. Il modo pi semplice per calcolare la probabilit P(p) che ci siano almeno due persone appartenenti ad un gruppo di p persone che compiano gli anni lo stesso giorno calcolare dapprima la probabilit P1(p) che ci non accada. Il ragionamento questo: data una qualunque persona del gruppo (indipendentemente dalla data del suo compleanno), vi sono 364 casi su 365 in cui il compleanno di una seconda persona avvenga in un giorno diverso; se si considera una terza persona, ci sono 363 casi su 365 in cui compie gli anni in un giorno diverso dalle prime due persone e via dicendo. Esprimendo in formule quanto sopra, la probabilit che tutti i compleanni cadano in date diverse :

e dunque la probabilit del suo evento complementare, cio che esistano almeno due compleanni uguali,

Questo paradosso ha importanti ricadute nella crittografia e nel dimensionamento del blocco da cifrare. In particolare nell'ambito della crittografia si utilizza il paradosso del compleanno per indicare che le funzioni hash crittografiche abbiano la propriet di "resistenza forte alle collisioni". Ad esempio una funzione di hash che produce un risultato su N bit sar reputata insicura quando verranno generati risultati in quanto si ha la probabilit di oltre il 50% di aver trovato una collisione, il risultato evidentemente ben al di sotto dei elementi necessari suggeriti dall'intuito.

Paradosso del compleanno

26

Note
[1] Il termine paradosso non da intendersi nel senso di una contraddizione logica, ma viene chiamato in questo modo poich la verit matematica contraddice l'intuizione naturale: molte persone stimano che questa probabilit sia decisamente inferiore al 50%. [2] (EN) Leap Day -- from Eric Weisstein's World of Astronomy (http:/ / scienceworld. wolfram. com/ astronomy/ LeapDay. html).URL consultato in data 22-04-2009.

Collegamenti esterni
Il paradosso del compleanno (http://www.teacherlink.org/content/math/interactive/probability/lessonplans/ birthday/home.html)

Distribuzione di Bernoulli
Distribuzione di Bernoulli Funzione di distribuzione discreta Funzione di ripartizione Parametri Supporto Funzione di densit Funzione di ripartizione Valore atteso Mediana Moda Varianza Skewness Curtosi Entropia Funz. Gen. dei Momenti Funz. Caratteristica

In teoria delle probabilit la distribuzione di Bernoulli (o bernoulliana) una distribuzione di probabilit su due soli valori, 0 e 1, detti anche fallimento e successo. Prende il nome dallo scienziato svizzero Jakob Bernoulli (1654-1705).

Distribuzione di Bernoulli

27

Definizione
La distribuzione di Bernoulli di parametro

Altre leggi
Un processo di Bernoulli una serie di variabili aleatorie indipendenti Xi di uguale distribuzione di Bernoulli B(p), dette prove di Bernoulli. La distribuzione binomiale descrive il numero di successi in n prove, ovvero la variabile aleatoria . La distribuzione geometrica e pi in generale la distribuzione di Pascal descrivono il tempo del primo e del k-esimo successo, ovvero le variabili aleatorie e per cui

Voci correlate
Distribuzione binomiale Distribuzione geometrica Distribuzione di Pascal Distribuzione di probabilit Processo di Bernoulli

Processo di Bernoulli
In teoria delle probabilit un processo di Bernoulli un particolare processo aleatorio discreto, ovvero una famiglia numerabile (X1, X2, ...) di variabili aleatorie indipendenti aventi la medesima legge di Bernoulli B(p). Un processo di Bernoulli pu essere considerato come una sequenza infinita di lanci di una moneta (non truccata). Ogni singolo lancio detto prova di Bernoulli. In particolare, essendo le variabili indipendenti, vale la mancanza di memoria: la probabilit di una prova di Bernoulli non influenzata dal risultato delle precedenti (che quindi non possono fornire alcuna informazione sulla nuova prova).

Variabili aleatorie
Ogni singola variabile aleatoria Xi pu fornire due soli risultati: il successo (1) o il fallimento (0), con rispettive probabilit p e q=1-p:

Il numero di successi dopo n prove dato dalla variabile aleatoria , che segue la legge binomiale B(p,n), con probabilit

Processo di Bernoulli pari al numero di sequenze di k successi e n-k fallimenti, moltiplicato per la probabilit che una qualunque di queste si verifichi. Il numero di lanci necessari per ottenere un successo dato da una variabile aleatoria N che segue la legge geometrica di rapporto q: . Pi in generale, il numero di lanci necessari per ottenere k successi dato da una variabile aleatoria Nk di legge ; in particolare, il numero di fallimenti dato dalla variabile aleatoria Pk = Nk-n, di legge di Pascal (o binomiale negativa) P(p,k) .

28

Applicazioni
In statistica un processo di Bernoulli (a tempo finito) viene utilizzato come modello per il campione di una popolazione della quale si vuole determinare la proporzione p che verifica una certa propriet. Ogni processo di Bernoulli (con p qualunque) pu venire utilizzato per originare, tramite l'estrazione di Von Neumann, un nuovo processo di Bernoulli le cui prove seguono la legge B(1/2). Questo metodo particolarmente utilizzato nella teoria della complessit computazionale e prevede di raggruppare le originali prove di Bernoulli a coppie successive; se i due elementi sono diversi si prende il valore del primo, mentre se sono uguali la coppia viene scartata, come ad esempio:
11 10 11 01 01 01 00 11 01 01 01 01 01 10 10 11 00 10 10 10 11 01 01 00 10 10 1 0 0 0 0 0 0 0 0 1 1 1 1 1 0 0 1 1

Questo metodo sfrutta l'uguaglianza delle probabilit ; e siccome 2pq al pi 1/2, la lunghezza della stringa finale risulta mediamente essere lunga non pi di un quarto della stinga iniziale.

Funzione di Bernoulli
Un processo di Bernoulli pu essere interpretato come una misura sullo spazio di Morse delle successioni di 0 e 1, o sull'intervallo [0,1] dei numeri reali in base binaria (la successione la loro espressione decimale). In particolare, per p=1/2 si ottiene una misura uniforme. Poich ogni prova ha uno o due possibili risultati, una sequenza di tentativi pu essere rappresentata dalle cifre binarie di un numero reale. Quado la probabilit p = 1/2, tutte le possibili distribuzioni sono ugualmente verosimili, , e quindi la misura della -algebra del processo di Bernoulli equivalente alla misura uniforme nell'intervallo unitario: in altre parole, i numeri reali sono uniformemente distribuiti sull'intervallo unitario. L'operatore Bernoulli, ( di shift che mangia la prima cifra, mandando ogni cifra nella precedente ( ) equivale quindi alla moltiplicazione per 2 modulo 1, o funzione di , dove {2} la parte frazionaria di 2).

La mappa di Bernoulli un modello esattamente risolubile di caos deterministico. L'operatore di trasferimento, o operatore di Rouelle, di quest'applicazione risolubile: i suoi autovalori sono potenze di 1/2 e le sue autofunzioni

Processo di Bernoulli sono i polinomi di Bernoulli.

29

Generalizzazioni
La generalizzazione del processo di Bernoulli nel caso multinomiale (pi di due possibili risultati) chiamata schema di Bernoulli.

Bibliografia
Carl W. Helstrom, Probability and Stochastic Processes for Engineers, (1984) Macmillan Publishing Company, New York ISBN 0-02-353560-1. Dimitri P. Bertsekas and John N. Tsitsiklis, Introduction to Probability, (2002) Athena Scientific, Massachusetts ISBN 1-886529-40-X Pierre Gaspard, "r-adic one-dimensional maps and the Euler summation formula", Journal of Physics A, 25 (letter) L483-L485 (1992). (Describes the eigenfunctions of the transfer operator for the Bernoulli map) Dean J. Driebe, Fully Chaotic Maps and Broken Time Symmetry, (1999) Kluwer Academic Publishers, Dordrecht Netherlands ISBN 0-7923-5564-4 (Chapters 2, 3 and 4 review the Ruelle resonances and subdynamics formalism for solving the Bernoulli map).

Voci correlate
Processo aleatorio Variabile casuale di Bernoulli Variabile aleatoria binomiale Variabile casuale geometrica Variabili indipendenti processo di Levy

Distribuzione binomiale

30

Distribuzione binomiale
Distribuzione binomiale Funzione di distribuzione discreta

Funzione di ripartizione

Parametri

Supporto Funzione di densit Funzione di ripartizione (funzione Beta incompleta regolarizzata) Valore atteso Mediana tra e (non precisa) Moda Varianza Skewness Curtosi se

Distribuzione binomiale

31
Entropia Funz. Gen. dei Momenti Funz. Caratteristica

In teoria della probabilit la distribuzione binomiale una distribuzione di probabilit discreta che descrive il numero di successi in un processo di Bernoulli, ovvero la variabile aleatoria che somma n variabili aleatorie indipendenti di uguale distribuzione di Bernoulli B(p). Esempi di casi di distribuzione binomiale sono i risultati di una serie di lanci di una stessa moneta o di una serie di estrazioni da un'urna (con reintroduzione), ognuna delle quali pu fornire due soli risultati: il successo con probabilit p e il fallimento con probabilit q=1-p.

Definizione
La distribuzione binomiale caratterizzata da due parametri: : la probabilit di successo della singola prova di Bernoulli Xi (0 < p < 1). : il numero di prove effettuate. , che esprime la probabilit

Per semplicit di notazione viene solitamente utilizzato anche il parametro di fallimento per una singola prova. La distribuzione di probabilit :

cio ogni successione con k successi e n-k insuccessi ha probabilit

, mentre il numero di queste

successioni, pari al numero di modi (o combinazioni) in cui possono essere disposti i k successi negli n tentativi, dato dal coefficiente binomiale . La formula del binomio di Newton mostra come la somma di tutte le probabilit nella distribuzione sia uguale ad 1:

Esempio
Per calcolare la probabilit di ottenere con 5 lanci di un dado (equilibrato a 6 facce) esattamente 3 volte "4", basta considerare i lanci come un processo di Bernoulli. Ogni singola prova ha probabilit p=1/6 di ottenere "4" (successo) e probabilit q=5/6 di non ottenerlo (insuccesso). Il numero di successi con 5 prove allora descritto da una variabile aleatoria S5 di legge B(5,1/6). La probabilit di ottenere esattamente 3 volte "4" con 5 lanci (e 2 volte "non 4")

Distribuzione binomiale

32

Caratteristiche
Siccome la distribuzione binomiale B(n,p) descrive una variabile aleatoria Sn definita come la somma di n variabili aleatorie indipendenti Xi di uguale legge di Bernoulli B(p), molte caratteristiche di Sn possono essere ricavate da quelle di X: il valore atteso

la varianza

la funzione generatrice dei momenti

la funzione caratteristica

il coefficiente di skewness

il coefficiente di curtosi

La moda di intero allora

si ottiene confrontando le probabilit successive .

. Se

un numero non un intero

e la moda non unica; se invece

allora la moda pari alla sua parte intera Non esistono formule precise per la mediana di superiore di , e . Se assume il valore (ad esempio

, che tuttavia dev'essere compresa tra le parti intere inferiore e . Se la funzione di ripartizione dispari) allora tutti i valori per ed

un intero allora la mediana

dell'intervallo possono essere presi come mediana.

Altre distribuzioni di probabilit


La distribuzione di Bernoulli B(p) pu essere considerata come un caso particolare di distribuzione binomiale B(p,1), che descrive un processo di Bernoulli con una sola prova: S1=X1. I successi in una sequenza di estrazioni da un'urna, effettuate senza reintroduzione degli estratti, sono descritti da una variabile aleatoria che segue la legge ipergeometrica.

Convergenze
Per valori di n sufficientemente grandi la legge binomiale approssimata da altre leggi. Quando n tende a infinito, lasciando fisso =np, la distribuzione binomiale tende alla distribuzione di Poisson P()=P(np). In statistica quest'approssimazione viene solitamente accettata quando n 20 e p 1/20, oppure quando n 100 e np 10.

Distribuzione binomiale Per il teorema del limite centrale, quando n tende a infinito, lasciando fisso p, la distribuzione binomiale tende alla distribuzione normale N(np,npq), di speranza np e varianza npq. In statistica quest'approssimazione viene solitamente accettata quando np>5 e nq>5. Pi precisamente, il teorema del limite centrale afferma che

33

Generalizzazioni
Una generalizzazione della distribuzione binomiale che descrive la somma distribuzione di Bernoulli , dove P segue la legge Beta la legge distribuzione Beta-binomiale , di n variabili aleatorie indipendenti, ognuna con . (Al contrario della distribuzione binomiale,

le Xi non hanno lo stesso parametro.) La distribuzione binomiale una delle quattro distribuzioni di probabilit definite dalla ricorsione di Panjer: .

Statistica
Nell'inferenza bayesiana si utilizzano particolari relazioni tra la distribuzione binomiale e altre distribuzioni di probabilit. Se P una variabile aleatoria che segue la distribuzione Beta distribuzione binomiale e Sn una variabile aleatoria con

, allora la probabilit condizionata da Sn=x per P segue la distribuzione Beta . In altri termini, la distribuzione Beta descrive P sia a priori che a posteriori di Sn=x.

In particolare la distribuzione continua uniforme sull'intervallo [0,1] un caso particolare di distribuzione Beta , quindi la distribuzione per P, a posteriori di Sn=x, segue la legge Beta inciso ha un massimo in x/n. , che per

Voci correlate
Processo di Bernoulli Distribuzione di Bernoulli Distribuzione normale Distribuzione di Poisson

Distribuzione geometrica

34

Distribuzione geometrica
Distribuzione geometrica Funzione di distribuzione discreta

Funzione di ripartizione

Parametri Supporto Funzione di densit Funzione di ripartizione Valore atteso Mediana Moda Varianza Skewness Curtosi Entropia Funz. Gen. dei Momenti Funz. Caratteristica se

In teoria della probabilit la distribuzione geometrica una distribuzione di probabilit discreta sui numeri naturali (con l'elemento "0") che segue una progressione geometrica:

E' la probabilit che il primo successo (o evento in generale) richieda l' eseguzione di k prove indipendenti, ognuna di probabilit di successo p. Se la probabilit di successo di ogni prova p, allora la probabilit che alla kesima prova (dopo k prove) si ottenga il successo

Distribuzione geometrica

35

con k = 1, 2, 3, .... La formula qui sopra usata per modellizzare il numero di tentativi fino ad ottenere il primo successo. Qui sotto invece si cerca il numero di successi fino al prim fallimento:

fork=0,1,2,3,.... In either case, the sequence of probabilities is a geometric sequence.

Definizione
La distribuzione geometrica , con dove q indica la probabilit di insuccesso. Il parametro . A volte lo zero viene escluso dal supporto: se T ha distribuzione geometrica sopra descritta, la distribuzione di X =T+1 sar e le altre funzioni saranno modificate di conseguenza. Nell'esempio citato sopra, X sarebbe il numero di estrazioni da fare perch esca un numero fissato. si ricava da la distribuzione di probabilit sui numeri naturali della forma

Processo di Bernoulli
La distribuzione geometrica di parametro q descrive anche il numero T di fallimenti che precedono il primo successo in un processo di Bernoulli di parametro p=1-q:

Caratteristiche
Una variabile aleatoria T con distribuzione geometrica di parametro q e avente come supporto i numeri naturali incluso il numero 0 ha funzione di probabilit

funzione di ripartizione

valore atteso

varianza

funzione generatrice dei momenti funzione caratteristica I quantili si ricavano dalla funzione di ripartizione: se un numero intero ( ) allora e

(nella tabella c' altro) ->

Distribuzione geometrica se invece In particolare la mediana se altrimenti. con intero, non intero, allora (parte intera).

36

Assenza di memoria
La distribuzione geometrica priva di memoria, ovvero

ed l'unica distribuzione di probabilit discreta con questa propriet. L'indipendenza delle prove in un processo di Bernoulli implica l'assenza di memoria della distribuzione geometrica. D'altro canto, ogni variabile aleatoria T a supporto sui numeri naturali e priva di memoria rispetta

pertanto ha una distribuzione di probabilit geometrica di parametro

Generalizzazioni
Una generalizzazione della distribuzione geometrica la distribuzione di Pascal (o distribuzione binomiale negativa), che descrive il numero di fallimenti precedenti il successo r-esimo in un processo di Bernoulli. Un'ulteriore generalizzazione della distribuzione di Pascal la distribuzione di Panjer che, come la distribuzione geometrica, definisce le probabilit per ricorsione.

Esempi
La probabilit che un dado (equilibrato, a 6 facce) debba venire lanciato esattamente 10 volte prima di fornire un "4" data dalla distribuzione geometrica. Il lancio del dado pu essere considerato un processo di Bernoulli, in cui ogni prova Xi ha probabilit p=1/6 di fornire "4" (successo) e q=5/6 di fornire un altro numero (fallimento). La probabilit cercata quindi

La probabilit che dopo 10 lanci sia uscito almeno un "4" invece

La probabilit che al decimo lancio si ottenga un "4" dopo che per 9 lanci questo numero non mai stato ottenuto facilmente calcolabile grazie alla mancanza di memoria

Distribuzione geometrica

37

Voci correlate
Distribuzione di Bernoulli Distribuzione di Panjer Distribuzione di Pascal Distribuzione di probabilit Mancanza di memoria Processo di Bernoulli Variabile aleatoria

Distribuzione ipergeometrica
Distribuzione ipergeometrica Funzione di distribuzione discreta Funzione di ripartizione Parametri Supporto Funzione di densit

Funzione di ripartizione Valore atteso Mediana Moda Varianza Skewness Curtosi Entropia Funz. Gen. dei Momenti Funz. Caratteristica

In teoria delle probabilit la distribuzione ipergeometrica una distribuzione di probabilit discreta che descrive l'estrazione senza reinserimento di alcune palline, perdenti o vincenti, da un'urna. L'estrazione con reinserimento (la pallina estratta viene rimessa nell'urna) viene invece descritta dalla distribuzione binomiale. Ad esempio, estraendo 5 palline da un'urna che ne contiene 3 bianche e 7 nere, il numero di palline bianche estratte descritto dalla distribuzione ipergeometrica.

Distribuzione ipergeometrica

38

Definizione
La distribuzione ipergeometrica descrive la variabile aleatoria che conta, per r elementi distinti estratti a caso (in modo equiprobabile) da un insieme A di cardinalit n, quanti sono nel sottoinsieme B di cardinalit h. In termini pi concreti descrive, data un'urna contenente h palline bianche e n-h palline nere, il numero di palline bianche che vengono ottenute estraendo senza reinserimento r palline. La probabilit di ottenere esattamente k elementi in B . Questa probabilit, espressa tramite i coefficienti binomiali combinatorio: il numero di possibili estrazioni di r elementi da A, il numero di possibili estrazioni di k elementi tra gli h di B, il numero di possibili estrazioni dei restanti r-k elementi tra gli n-h non in B. , si pu ricavare tramite il calcolo

Definizione alternativa
Una definizione equivalente considera gli elementi estratti come un sottoinsieme C di A. In questo modo la cardinalit dell'intersezione di due insiemi B e C, scelti a caso (con distribuzione uniforme) tra i sottoinsiemi di A con cardinalit fissate, descritta dalla distribuzione ipergeometrica .

Propriet
Cardinalit delle intersezioni
B C k A-B r-k A r

A-C h-k n-r-h+k n-r A h n-h n

La formula per la probabilit presenta varie simmetrie, che si possono ricavare scambiando i ruoli che svolgono i quattro insiemi vincenti (B), non vincenti (A-B), estratti (C) e non estratti (A-C). In particolare scambiando vincenti con estratti

scambiando vincenti con non vincenti

scambiando estratti con non estratti

Distribuzione ipergeometrica

39

Caratteristiche
Senza bisogno di fare calcoli con i coefficienti binomiali, la speranza matematica di N si pu ottenere considerando per ogni elemento b di B la variabile aleatoria che vale 1 se b viene estratto e 0 altrimenti. In questo modo si ha , dove ogni distribuzione binomiale, le variabili . possibile procedere nella stessa maniera per calcolare la varianza di N tramite la varianza e la covarianza delle : ; in particolare, i fattori che compaiono al numeratore sono le cardinalit dei quattro insiemi "estratti", "non estratti", "vincenti" e "non vincenti". segue la distribuzione di Bernoulli ; anche se, a differenza della non sono indipendenti tra di loro, per la linearit della speranza si ottiene

Altre distribuzioni
Per una singola estrazione la distribuzione ipergeometrica . A differenza della distribuzione ipergeometrica, la distribuzione binomiale corrisponde ad un processo in cui dopo ogni estrazione la pallina viene reintrodotta nell'urna, lasciando invariata la probabilit di estrarre in seguito una pallina vincente. Per valori di n e h molto grandi rispetto a r, e per h/n non vicino a 0 n a 1, ad ogni estrazione le probabilit restano quasi uguali. In statistica (ad esempio nei sondaggi) questa approssimazione viene accettata per . La distribuzione ipergeometrica pu essere generalizzata considerando differenti le probabilit di estrarre le singole palline, ovvero utilizzando una distribuzione non uniforme sull'insieme A. Un'altra generalizzazione della distribuzione ipergeometrica la distribuzione ipergeometrica multivariata, che prevede che nell'urna siano presenti palline di pi di due colori, ovvero in cui l'insieme A non pi partizionato nei soli due insiemi B e A-B, ma in (insiemi disgiunti la cui unione A). La distribuzione non descrive pi la probabilit che k elementi siano in B e r-k in A-B, bens la probabilit che k1 siano in B1, k2 in B2, e cos via, per ogni con : . Questa distribuzione di probabilit si rapporta alla distribuzione multinomiale esattamente come la distribuzione ipergeometrica si rapporta alla distribuzione binomiale. coincide con la distribuzione di Bernoulli

Esempio
Un esempio di distribuzione ipergeometrica dato dal gioco d'azzardo win for Life, in cui su un totale di n=20 numeri disponibili h=10 vengono scelti dal giocatore e r=10 vengono estratti. La probabilit di indovinarne k governata dalla distribuzione ipergeometrica , . In particolare si possono calcolare facilmente le probabilit di vincita, proporzionali ai quadrati dei coefficienti binomiali ; ad esempio la probabilit che vengano estratti esattamente 6 (oppure 4) degli elementi scelti

Distribuzione ipergeometrica

40

Voci correlate
Coefficiente binomiale Distribuzione binomiale Distribuzione discreta uniforme

Distribuzione di Pascal
Distribuzione di Pascal, o binomiale negativa Funzione di distribuzione discreta

Funzione di ripartizione Parametri oppure Supporto Funzione di densit Funzione di ripartizione funzione Beta incompleta regolarizzata Valore atteso Mediana Moda Varianza Skewness Curtosi Entropia Funz. Gen. dei Momenti Funz. Caratteristica

Distribuzione di Pascal In teoria delle probabilit la distribuzione di Pascal una distribuzione di probabilit discreta con due parametri, ed , che descrive il numero di fallimenti precedenti il successo n-esimo in un processo di Bernoulli di parametro p. A volte si considera la distribuzione di Pascal come quella distribuzione che descrive il numero di prove necessarie per ottenere n successi. Questa distribuzione equivalente alla precedente ma riscalata, ovvero descrive una variabile aleatoria anzich . Ad esempio, lanciando una moneta fino ad ottenere 3 volte testa, la distribuzione di Pascal descrive le probabilit per il numero di risultati croce visti nel frattempo. La distribuzione prende il nome dal matematico francese Blaise Pascal. Questa distribuzione di probabilit pu essere generalizzata sostituendo il numero naturale n con un numero reale positivo r. In questo caso viene detta anche distribuzione binomiale negativa (per la sua particolare formula) o di Polya (dal matematico ungherese George Polya).

41

Definizione
Dato un processo di Bernoulli, ovvero una serie di variabili aleatorie indipendenti distribuzione di Bernoulli , la distribuzione di Pascal descrive la variable aleatoria il numero di fallimenti precedenti il successo numero , . La probabilit di fallimento di una singola prova . La probabilit che si verifichino esattamente k fallimenti prima di ottenere un totale di n successi data dalla probabilit di ottenere un successo nella prova numero k+n ( ) e di ottenere esattamente k fallimenti e n-1 successi nelle prove precedenti, ovvero , dove il coefficiente binomiale conta il numero di possibili disposizioni di successi e fallimenti. Questa probabilit pu anche essere scritta nella forma binomiale negativa , dove si considera la generalizzazione del coefficiente binomiale . di uguale che conta

(ovvero il numero di prove necessarie ad ottenerlo, meno n):

Definizioni alternative
Sostituendo il numero naturale n con il numero reale positivo r la formula mantiene un significato, anche se il coefficiente binomiale pu essere espresso tramite la funzione Gamma, che estende il concetto di fattoriale ( ): . Alcuni testi definiscono la distribuzione di Pascal come quella che descrive il numero di prove fino al successo n-esimo, ed altri scambiano i termini successo ed insuccesso nella definizione. Per collegare queste definizioni basta rispettivamente considerare la variabile aleatoria al posto di nel primo caso e scambiare i valori di p e q nell'altro.

Distribuzione di Pascal

42

Distribuzione geometrica
Una variabile aleatoria con distribuzione di Pascal pari alla somma di n variabili la : e il successo numero aleatorie indipendenti con uguale distribuzione geometrica . Questo si pu vedere considerando come

variabile aleatoria che conta il numero di fallimenti intercorsi tra il successo numero

le sono allora indipendenti ed hanno distribuzione geometrica di parametro q. In particolare, la distribuzione di Pascal coincide con la distribuzione geometrica

, e la somma di

m variabili aleatorie indipendenti con distribuzioni di Pascal aventi lo stesso parametro p segue ancora la distribuzione di Pascal con parametro p ( sempre somma di variabili aleatorie indipendenti con uguale distribuzione geometrica).

Caratteristiche
Alcune caratteristiche di una variabile aleatoria Tn che segue la distribuzione di Pascal ricavare dalle caratteristiche di una variabile aleatoria T con distribuzione geometrica il valore atteso , la varianza , la funzione generatrice dei momenti , gli indici di simmetria e di curtosi . La funzione di ripartizione pu essere definita tramite la funzione Beta incompleta regolarizzata: : si possono

Tutte le formule valgono ancora anche sostituendo il numero naturale n con il numero reale positivo r.

Altre distribuzioni
La distribuzione di Pascal una mistura della distribuzione Gamma e della distribuzione di Poisson: una variabile aleatoria con distribuzione di Poisson , il cui parametro L segua una distribuzione Gamma, segue la distribuzione di Pascal. La distribuzione di Pascal , di speranza , converge alla distribuzione di Poisson .

La distribuzione di Pascal si trova anche come mistura della distribuzione di Poisson e della distribuzione logaritmica, ovvero descrive la somma di un numero , che segue la distribuzione di Poisson, di variabili aleatorie indipendenti che seguono una stessa distribuzione logaritmica. Considerando le variabili aleatorie aleatorie si trova la formula , di distribuzione binomiale di distribuzione e le variabili di Pascal

Distribuzione di Pascal che esprime per un processo di Bernoulli l'equivalenza degli eventi "ottenere meno di k insuccessi prima del successo n-esimo" e "ottenere almeno n successi nelle prime n+k prove". La distribuzione di Panjer, che definisce i valori per ricorsione, generalizza la distribuzione di Pascal:

43

Statistica
La distribuzione di Pascal viene talvolta utilizzata in alternativa alla distribuzione di Poisson, a cui converge in legge sotto la condizione , nei casi in cui il modello empirico presenti una varianza maggiore del valore medio: la distribuzione di Poisson ha sempre speranza pari al valore medio, mentre la distribuzione di Pascal pi dispersa (ha una varianza maggiore). Come spesso avviene nell'inferenza bayesiana, se il parametro p di una distribuzione di Pascal segue a priori la distribuzione Beta, allora la segue anche a posteriori.

Voci correlate
Coefficiente binomiale Convergenza in distribuzione Distribuzione geometrica Distribuzione di Poisson Mistura di distribuzioni Processo di Bernoulli

44

Mangia&Bevi
Variabili dipendenti e indipendenti
In matematica una variabile dipendente da altre variabili se esiste una relazione tra di esse che la coinvolge, altrimenti indipendente da esse. Due o pi variabili indipendenti l'una dall'altra sono dette variabili indipendenti. In assenza di una relazione, le variabili sono solitamente supposte indipendenti. Ad esempio, le coordinate (x,y) dei punti nel piano sono variabili indipendenti, mentre le coordinate dei punti su una circonferenza di raggio r sono variabili dipendenti: x2+y2=r2 (alcuni valori che possono essere scelti singolarmente per le due variabili non possono essere presi contemporaneamente). In teoria delle probabilit due variabili aleatorie X e Y sono indipendenti quando lo sono le loro funzioni di probabilit, quindi se la loro probabilit congiunta sempre pari al prodotto delle singole probabilit:

In statistica talvolta la denominazione non cos precisa ma viene, per comodit d'uso, associata all'ordine con cui si considerano le variabili: ognuna viene detta dipendente o indipendente rispetto alle sole variabili precedenti (la prima automaticamente indipendente). In particolare, per due variabili dipendenti X e Y (come l'et e il titolo di studio) possibile scegliere quale considerare indipendente e quale dipendente. In base al contesto si usano come sinonimi per una variabile indipendente: regressore, predittore, controllata, manipolata o di input; per una variabile dipendente: di risposta, misurata, spiegata, sperimentale o di output.

Voci correlate
Teorema della probabilit composta Variabile (matematica)

Valore atteso

45

Valore atteso
In teoria della probabilit il valore atteso (chiamato anche media, speranza o speranza matematica) di una variabile casuale , un numero indicato con (da expected value o expectation in inglese o dal francese esprance) che formalizza l'idea euristica di valore medio di un fenomeno aleatorio. In generale il valore atteso di una variabile casuale discreta (che assuma cio solo un numero finito o una infinit numerabile di valori) dato dalla somma dei possibili valori di tale variabile, ciascuno moltiplicato per la probabilit di essere assunto (ossia di verificarsi), cio la media ponderata dei possibili risultati. Per una variabile casuale continua la questione pi delicata e si deve ricorrere alla teoria della misura e all'integrale di Lebesgue-Stieltjes. Ad esempio nel gioco testa o croce, se scegliamo "testa" e ipotizziamo un valore di 100 per la vittoria (testa) e di zero per la sconfitta (croce), il valore atteso del gioco 50, ovvero la media delle vincite e perdite pesata in base alle probabilit (50% per entrambi i casi): , cio il valore di "testa" per la sua probabilit e il valore di "croce" per la sua probabilit.

Definizione matematica
Sia valore atteso di uno spazio di probabilit, ed semplicemente l'integrale di . una variabile aleatoria a valori reali su tale spazio (ossia una rispetto alla misura di probabilit : funzione misurabile , dove i numeri si intendono equipaggiati con la loro -algebra boreliana). Il

Calcolare il valore atteso di variabili aleatorie discrete


Nel caso di variabile casuale discreta che ammette funzione di probabilit pu essere calcolata come

Calcolare il valore atteso di variabili aleatorie assolutamente continue


Nel caso di variabile casuale continua che ammette funzione di densit di probabilit f(x) il calcolo diventa

Speranza matematica finita


Si dice che ha speranza matematica finita nel discreto se

mentre nel continuo se

Valore atteso

46

Propriet
Media di una costante
La media di una costante c (cio di una variabile casuale che assume il valore c con probabilit 1) ovviamente la costante stessa: E[c]=c.

Linearit
Un'importante caratteristica del valore atteso la sua linearit: ovvero per ogni variabile casuale X e coppia di numeri reali a e b si ha

Questa propriet facilmente dimostrabile: ad esempio, nel caso di una variabile casuale discreta, si ha

perch la somma delle probabilit 1, in quanto consideriamo la somma di tutti i possibili eventi. Questa propriet ha la conseguenza importante che date due variabili casuali qualsiasi X e Y (non necessariamente indipendenti) si ha

Questa propriet non vale per il prodotto: in generale, E[XY] diverso da E[X]E[Y]. Quando queste due quantit sono uguali, si dice che X e Y sono non correlate. In particolare, due variabili casuali indipendenti sono non correlate.

Monotonia
Se i valori che assume una variabile casuale X sono compresi tra due estremi a e b, cos sar la media di X; infatti e allo stesso modo si dimostra nel caso continuo. Da questo si deduce che se due variabili casuali verificano (ovvero, per ogni evento E, il valore di X in

corrispondenza di quell'evento maggiore o uguale di quello di Y), allora

Stime del valore atteso


In statistica, la stima del valore atteso assume un ruolo centrale, in quanto principale parametro usato nella statistica inferenziale.

Calcolo del valore atteso nel gioco


Gioco dei dadi
Nel gioco dei dadi rappresentando il risultato del tiro del dado con una variabile casuale che possa assumere i valori , ciascuno con probabilit . Intuitivamente, la media di questa variabile casuale sar , dal momento che .

Valore atteso

47

Il gioco del lotto


Nel gioco del lotto vengono estratti 5 numeri tra 1 e 90, ed un giocatore pu puntare una certa posta sul verificarsi di vari eventi. Calcoliamo il valore atteso del ricavo di uno scommettitore che punti 10 euro sulle cinque possibili giocate: numero secco (si punta sull'uscita di un determinato numero; la vincita paga circa 11 volte la posta): la probabilit che il giocatore vinca data dal rapporto da 5/90 (rapporto tra i numeri vincenti e tutti i numeri che possono essere estratti), ed in tal caso il giocatore vincer euro; la probabilit di perdita 85/90, ed in tal caso il giocatore perder i 10 euro di puntata. Il ricavo medio sar quindi . Ossia, in media il giocatore perder euro per ogni 10 euro

giocati. ambo (si punta sull'uscita di un determinata coppia di numeri; la vincita paga 250 volte la posta): vi sono possibili coppie di numeri. Poich sulla ruota vengono estratti 5 numeri, gli ambi estratti sono e pertanto il giocatore vincer con probabilit 10/4005, ed in tal caso egli guadagner euro; la probabilit di perdita 3995/4005, ed in tal caso il giocatore perder i 10 euro di puntata. Il guadagno medio sar quindi . Ossia, in media il

giocatore perder euro per ogni 10 euro giocati. terno (si punta sull'uscita di un determinata terna di numeri; la vincita paga 4500 volte la posta): Ci sono 117480 possibili terne distinte di numeri. quaterna (si punta sull'uscita di un determinata quaterna di numeri; la vincita paga 120000 volte la posta): Ci sono 2555190 possibili quaterne distinte di numeri. cinquina (si punta sull'uscita di un determinata cinquina di numeri; la vincita paga 6 milioni di volte la posta): Ci sono 43949268 possibili cinquine distinte di numeri. La tabella seguente mostra un riepilogo delle perdite medie per una giocata di importo pari a 1 euro.
Probabilit di vincita Quote di Vincita per 1 euro giocato Perdita media in centesimi Ambo Terna 1/(400.5) 1/(11748) 250 4500 120000 6 milioni 37.6 61.7 76.5 86.3

Quaterna 1/(511038) Cinquina 1/(43949268)

Bibliografia
Giorgio Dall'Aglio, Calcolo delle probabilit, Zanichelli, Bologna, 2003 Probabilit e lotto [1]

Voci correlate
Teoria della probabilit Media Funzione generatrice dei momenti Funzione di densit Funzione di ripartizione Valore atteso condizionato

Valore atteso

48

Note
[1] http:/ / www. unipa. it/ ~sanfilippo/ pub/ sigad/ lotto. pdf

Varianza
Nella teoria della probabilit e in statistica la varianza di una variabile aleatoria x (e della distribuzione di probabilit che questa segue) una funzione indicata con 2(x), che fornisce una misura di quanto siano vari i valori assunti dalla variabile, ovvero di quanto si discostino dal valore atteso .

Definizione
La varianza di x definita come il valore atteso del quadrato della variabile aleatoria centrata

In statistica viene spesso preferita la radice quadrata della varianza di x, lo scarto tipo (o scarto quadratico medio) indicato con la lettera . Per questo motivo talvolta la varianza viene indicata con 2. Un esempio di "misura" dello scostamento di una variabile aleatoria dalla media dato dalla disuguaglianza di ebyv che controlla questo scostamento in termini dello scarto tipo:

Propriet
La varianza di una variabile aleatoria non mai negativa, ed zero solamente quando la variabile assume quasi certamente un solo valore, P(x=x)=1. Una formula alternativa per la varianza

Questa formula a volte pi pratica per calcolare la varianza.

Linearit
La varianza invariante per traslazione, che lascia fisse le distanze dalla media, e cambia quadraticamente per riscalamento:

La varianza della somma di due variabili indipendenti pari alla somma delle loro varianze

Usande le due precedenti affermazioni, possiamo dire che la varianza della differenza di due variabili indipendenti pari alla somma delle loro varianze

Se x e y non sono indipendenti, la formula viene corretta dalla loro covarianza, , dove

In particolare, la media aritmetica varianza aritmetica

di n variabili aleatorie indipendenti aventi la medesima legge, ha

Varianza

49

Variabili discrete e continue


La varianza di una variabile aleatoria discreta x a valori in un insieme X si calcola attraverso la sua funzione di probabilit:

La varianza di una variabile aleatoria continua x a valori in un insieme X si calcola attraverso la sua densit di probabilit:

Statistica
In statistica viene utilizzata pi spesso della varianza la sua radice quadrata, vale a dire lo scarto quadratico medio anche detto deviazione standard. Con riferimento a questa notazione la varianza si trova quindi anche indicata come .

Stimatori
In statistica si utilizzano solitamente due stimatori per la varianza su un campione di cardinalit n: e (anche chiamati varianza campionaria) dove , lo stimatore per la media. .

Lo stimatore Sn-1 privo di bias, ovvero il suo valore atteso proprio la varianza

Al contrario, lo stimatore Sn ha un valore atteso diverso dalla varianza, . Una giustificazione del termine n-1 data dalla necessit di stimare anche la media. Se la media nota, lo stimatore Sn diventa corretto. Questa detta "Correzione di Bessel".

Varianza

50

In contrasto con,

Se le xi seguono la legge normale N(,), lo stimatore S2n-1 segue una legge del 2

Varianza osservata
Come per gli stimatori, esistono due diverse varianze osservate sui dati di un campione osservata , e In particolare, . di media

la media quadratica delle distanze dei valori dalla loro media.

Esempi
Una variabile aleatoria x di legge di Bernoulli B(p), ovvero che ha probabilit p di fornire "1" e probabilit q=1-p di fornire "0", ha valore medio ; la sua varianza pu essere calcolata come

oppure come . Il campione {-4, -1, 1, 2, 7} ha media aritmetica

e le varianze aritmetiche osservate sono

Varianza

51

Voci correlate
Covarianza Legge della varianza totale Scarto quadratico medio Valore atteso Variabili indipendenti

52

Pignoni
Serie geometrica
Una serie geometrica una serie tale per cui il rapporto tra due termini successivi costante.

Definizione
La serie geometrica una serie del tipo successione delle somme parziali . In modo equivalente, pu essere definita come il limite della , in cui:

La somma parziale n-esima di una serie geometrica dunque la somma per

che va da zero ad

di

. Il

rapporto di ogni termine della somma rispetto al termine precedente costantemente uguale a della serie.

ed detto ragione

Questo tipo di serie ricorre con una particolare frequenza nell'analisi degli algoritmi; in molti casi il valore di questi ultimi pu essere calcolato direttamente con le formule che vengono presentate in questo articolo. Una delle espressioni pi comuni proprio la somma parziale della nota serie geometrica.

Formule
Possiamo trovare una formula pi semplice per questa somma moltiplicando entrambi i membri della precedente equazione per . Vediamo che i termini del polinomio da 1 a si semplificano con i corrispondenti della sommatoria:

Spostando il termine

al secondo membro si ottiene rapidamente la somma per la serie geometrica:

Se la serie non parte da 0, ma da un altro termine m, allora

Derivando la somma rispetto a x si possono trovare formule per somme del tipo

ad esempio:

Un altro modo semplicemente algebrico per arrivare alla somma da 0 ad n consiste nel partire da: quindi sottrarre 1 e dividere tutto per x ambo i membri

Serie geometrica

53

poich

allora possiamo scrivere

facendo tutti i passaggi algebrici, da quest'ultima equazione, otteniamo: con un ultimo passaggio possibile dimostrare che la somma che stavamo cercando. si ottiene , ovvero che la

anche per induzione. Osserviamo che per

pertanto la base induttiva verificata. Supponiamo che la formula sia vera per somma dei primi termini valga proprio , allora la somma dei primi

termini vale

Pertanto la formula, supposta vera per i primi dimostrato per induzione matematica che

termini, vera anche per i primi

termini, pertanto stato

Osserviamo che tale formula valida per

, se

la somma vale banalmente

Comportamento della serie


La serie ha il seguente carattere: divergente per diverge. indeterminata per perch si ha e non esiste (alcuni testi riportano, per ). perch si ha e per il teorema del confronto

questo caso, il carattere divergente, intendendo che o, in altri termini, che indeterminata nel caso , poich la funzione somma oscilla tra 1 e 0. convergente quando Se infatti la somma della serie esiste e vale .

Quest'ultima formula valida in ogni algebra di Banach con la condizione che la norma di x sia minore di uno, e anche nel campo dei numeri p-adici se |x|p < 1. In particolare valida nel campo dei numeri complessi con l'usuale definizione di valore assoluto. Come nel caso delle somme finite, possiamo derivare la serie per trovare le formule di somme analoghe. Ad esempio:

Questa formula naturalmente valida solo per |x| < 1.

Serie geometrica

54

Stima della somma


Per effettuare la stima della somma geometrica infinita in modo generale spezziamo la serie come segue

ricordando che la serie geometrica ha somma pari a

otteniamo che

Serie geometrica troncata


Se si pone che si ha che:

viene chiamata serie geometrica troncata. La serie geometrica troncata alla base delle stime di somme molto complesse. Utilizzando l'operatore per si intende la derivata) si ha che (dove

riconducensi alla serie geometrica troncata. Stima della somma parziale per i = 1 Si consideri la somma delle potenze di grado 1:

Esempi
Si vuole valutare la seguente sommatoria: . Consideriamo la funzione

e osserviamo che la sua derivata data da

questo significa che

e quindi il nostro problema si riduce a valutare la derivata di otteniamo

in 2. Poich

Serie geometrica

55

e di conseguenza

Bibliografia
Giulio Barozzi, Primo corso di analisi matematica, Zanichelli Editore, ISBN 8808011690

Voci correlate
Serie Serie esponenziale Serie armonica Serie di Mengoli Progressione geometrica

Teorema binomiale
In algebra il teorema binomiale (o anche formula di Newton, binomio di Newton e sviluppo binomiale) esprime lo sviluppo della potenza n-esima di un binomio qualsiasi con la formula seguente:

in cui il fattore

rappresenta il coefficiente binomiale ed sostituibile con

. Tali coefficienti sono

peraltro gli stessi che si trovano nel noto triangolo di Tartaglia. Lo sviluppo vale per ogni coppia di numeri reali o complessi, ma pi in generale vale in ogni anello commutativo. Come esempio di applicazione della formula, riportiamo i casi piccoli, n=2, n=3 ed n=4:

Nel caso in cui n sia un numero reale o complesso, la somma finita sostituito da una serie infinita. Questa formula generalizzata, nel caso di n reale positivo, fu realizzata da Isaac Newton (da cui il nome).

Esposizione
possibile, secondo il teorema, espandere una qualunque potenza intera di (a+b) in una sommatoria nella forma

dove

rappresentano i coefficienti binomiali. Utilizzando la notazione di sommatoria, la stessa formula pu

essere scritta:

Teorema binomiale

56

Una variante di questa formula binomiale pu essere ottenuta sostituendo 1 ad "a" e "a" a "b", considerando quindi una sola variabile. In questa forma, si ha:

o, in maniera equivalente,

Prima dimostrazione (induttiva)


Il teorema binomiale pu essere dimostrato per induzione. Infatti possibile introdurre per tale teorema un passo base per cui esso risulta banalmente vero

e provare con il passo induttivo la veridicit del teorema per un esponente n qualsiasi. Infatti presa per corretta l'espressione

sicuramente vera per

+1, si ha

moltiplicando la sommatoria per

si ha

da cui, essendo

ed inoltre

si ha che, utilizzando nel primo passaggio una nota propriet del coefficiente binomiale

Teorema binomiale

57

essendo infine

si ha che

e si ottiene l'espressione formale dello sviluppo della potenza successiva del binomio

che conferma la tesi.

Seconda dimostrazione (combinatoria)


Se scriviamo come il prodotto pari al numero

con n fattori, evidente che il numero delle volte in cui compare nello sviluppo il termine di combinazioni che si possono ottenere prendendo che dato proprio da . volte e volte

dai fattori del prodotto, numero

Poich per la propriet distributiva il prodotto dato dalla somma di questi termini al variare di subito la tesi.

da

, si ha

Caso di esponente generale


Una dimostrazione possibile del caso attraverso le serie di Taylor. dove il resto Nella pratica si usano spesso solo i primi due termini della serie, ossia o(x) indica un infinitesimo di ordine superiore al primo. Lo sviluppo completo ,

dove

il coefficiente binomiale generalizzato, dato da

Teorema binomiale

58

Dimostrazione
Lo sviluppo attorno all'origine della funzione

e, poich

si ottiene

che la formula di cui sopra. Troncando la serie al k-esimo termine, l'errore che si ottiene un infinitesimo di ordine .

Voci correlate
Trinomio di Newton Teorema multinomiale Coefficiente binomiale

Triangolo di Tartaglia

59

Triangolo di Tartaglia
Il Triangolo di Tartaglia (detto anche triangolo di Pascal o Khayym o Yanghui[2]) una disposizione geometrica a forma di triangolo dei coefficienti binomiali, ossia dei coefficienti dello sviluppo del binomio (a+b) elevato ad una qualsiasi potenza n.

Costruzione
Le prime righe del Triangolo di Tartaglia sono le seguenti:
Prime cinque righe del triangolo

Triangolo di Tartaglia disegnato dal matematico [1] cinese Zhu Shijie nel 1303

1 1 1 1 1 1 1 1 1 1 1 10 9 45 8 36 120 7 28 84 210 6 21 56 126 252 5 15 35 70 126 210 4 10 20 35 56 84 120 3 6 10 15 21 28 36 45 2 3 4 5 6 7 8 9 10 1 1 1 1 1 1 1 1 1 1

Triangolo di Tartaglia
1 1 1 1 14 13 91 12 78 364 11 66 286 55 220 715 1001 165 495 2002 330 792 1287 3003 462 924 1716 3432 462 792 1716 3003 330 495 1287 715 2002 165 220 286 1001 364 55 66 78 91 11 12 13 14 1 1 1 1

60

In ciascuna riga si pu osservare che gli elementi di questa costruzione si ottengono come somma di due elementi adiacenti della riga precedente. Ossia, se k e n sono interi positivi, e k minore o uguale a n:

Ogni numero nel triangolo la somma dei due numeri superiori.

La potenza del binomio


L'applicazione principale del triangolo di Tartaglia nello sviluppo delle potenze di un binomio. Se ad esempio si vuole scrivere lo sviluppo di , sufficiente andare alla quinta riga del triangolo di Tartaglia per trovare i coefficienti del polinomio risultante (cio: 1, 4, 6, 4, 1). E dunque possiamo scrivere: In generale, nella n+1-esima riga si trovano i coefficienti della potenza n-esima del binomio. Per tale motivo, i numeri del triangolo di Tartaglia sono detti anche coefficienti binomiali, particolarmente studiati nell'ambito del calcolo combinatorio: si dimostra infatti che l'elemento di posizione k sulla riga n del triangolo di Tartaglia il numero di combinazioni di n elementi di classe k-1:

Dunque, la potenza del binomio pu essere scritta anche con la formula seguente, che dobbiamo a Newton ed comunemente indicata come formula del binomio di Newton: .

Triangolo di Tartaglia

61

Formalismo matriciale
Con i classici indici del formalismo matriciale, il triangolo pu essere costruito nel seguente modo. introdotti due indici e per denotare gli indici riga e colonna, possiamo scrivere: riga 1: riga 2: riga 3: riga 4: In generale, ; ; ; ; ; ; ; ; ; ; ; ; ; ; con e ,

una funzione di Dirichlet, che vale e ), tranne per . , ; oppure

sempre (per ogni

, ossia agli estremi (destro e sinistro) di ogni riga , , e che

del triangolo, dove vale Infatti, vale che

. Tale formulazione del tutto equivalente a quella precedente e pi "classica" del coefficiente binomiale. Vengono solamente cambiati gli indici, riconducendosi al formalismo matriciale.

Propriet
Il triangolo ha molte altre numerose propriet, alcune dipendenti dal metodo di costruzione, altre dalle propriet dei coefficienti binomiali (le due cose sono legate tra loro).

Condizione al contorno
Essendo tutti i numeri lungo il contorno sono uguali a uno.

Formula ricorrente
nota la propriet dei binomiali per cui

Questo porta ad una formula ricorrente per calcolare un numero del triangolo: se voglio conoscere il numero alla riga al posto , basta sommare i due numeri della fila precedente allo stesso posto e al posto precedente, cio otteniamo proprio la formula di costruzione.

Simmetria del triangolo


Il triangolo simmetrico rispetto all'altezza, cio , questo poich .

Somma delle righe


Si pu notare che: 1 + 2 + 6 = 1 = 2 = 4 = 8 = 16

1 1 + 1 + 3 1 + 4 +

1 + 1 3 + 1 + 4 + 1

Triangolo di Tartaglia Cio la somma della -esima riga , si pu dimostrare molto facilmente osservando che la somma della prima

62

riga ovviamente 1, e data una riga, ogni numero della riga successiva si ottiene sommando i due numeri superiori e che ogni numero superiore viene utilizzato due volte, quindi , indicando con la somma della riga . Altra dimostrazione ancora pi semplice consiste nel ricordare che ogni riga contiene i coefficienti dello sviluppo delle potenze di un binomio, volendo prendere il binomio , il suo sviluppo consiste nei semplici coefficienti, quindi, per esempio , ed in generale .

Differenza nelle righe


Si pu notare che: 1 1 1 - 3 1 - 4 + 2 + 6 1 + 1 3 - 1 - 4 + 1 = = = = 0 0 0 0

La somma dei numeri in posto dispari (1, 3, 5,...) meno la somma dei numeri al posto pari (2, 4, 6,...) d zero. Per le righe con un numero pari di elementi, questo ovvio in quanto il triangolo simmetrico (vedi sopra). Per una dimostrazione generale ci affidiamo alla tecnica precedente prendendo come binomio (1-1), in questo modo otteniamo proprio la somma che cerchiamo, che non pu che fare 0. Un esempio: .

Potenze di undici
Le cifre che compongono le potenze di 11 si possono leggere immediatamente sul triangolo di Tartaglia: 1 1 1 1 1 4 3 6 2 3 4 1 1 1 1 = 1 = 11 = 121 = 1331 = 14641

4 riga

Il metodo per la dimostrazione sempre quello, prendendo il binomio 10+1; per esempio alla 4 riga si ottiene . importante notare, tuttavia, che dalla 5 riga in poi l'equivalenza con le potenze di 11 verificata solo se si tiene conto dei riporti, perdendo l'immediatezza dei risultati precedenti.

Somma delle diagonali


Prendiamo una porzione del triangolo: 1 1 1 1 1 1 1 6 5 15 4 10 20 3 6 10 15 2 3 4 5 6 1 1 1 1 1 1

Triangolo di Tartaglia Sommando i numeri su una diagonale (1+3+6+10) otteniamo il numero adiacente al prossimo sulla diagonale (20). Questa un' identit molto utile nel campo della combinatoria, chiamata comunemente con il nome di "Identit della mazza da hockey"[3], per analogia con la forma assunta evidenziano gli addendi e il risultato in diagonale.

63

Multipli di numero fissato


Dato un numero n fissato, i numeri del triangolo che siano suoi multipli interi formano dei nuovi triangoli con il vertice in basso, oppure dei punti isolati, che sono ovviamente anch'essi dei triangoli di lato unitario. Tali triangoli non si intersecano, n sono adiacenti. Pari: 1 1 1 1 1 1 1 1 \8 1 9 7 28 \36 \6/ 21 56 84 5 15 35 70 126 \4 \10 \20/ 35 56 126 3 6 10/ 15 21 28 84 \2/ 3 4/ 5 \6/ 7 1 1 1 1 1 1 1 1

1 1

8/ 1 36/ 9 1 1 \10/ 45 \120 210 252 210 120/ 45 \10/ 1 1 11 55 165 \330 462 462 330/ 165 55 11 1 \12 66 220/ 495 \792 924 792/ 495 \220 66 12/ 1 13 \78 286/ 715 1287 \1716 1716/ 1287 715 \286 78/ 13

Altre successioni di interi


Nel triangolo di Tartaglia, oltre ai coefficienti binomiali, si individuano anche altre successioni di interi positivi:

Numero di Catalan
I Numeri di Catalan si possono trovare in verticale partendo dal vertice, scendendo e dividendo per 1, 2, 3, 4 ... quindi sono 1/1, 2/2, 6/3, 20/4, 70/5 ... ovvero 1, 1, 2, 5, 14 ... 1 1 1 1 1 1 1 1 1 1 1 1 1 12 11 66 10 55 220 9 45 165 495 8 36 120 330 792 7 28 84 210 462 924 6 21 56 126 252 462 792 5 15 35 70 126 210 330 495 4 10 20 35 56 84 120 165 220 3 6 10 15 21 28 36 45 55 66 2 3 4 5 6 7 8 9 10 11 12 1 1 1 1 1 1 1 1 1 1 1 1

Triangolo di Tartaglia

64

Numeri di Fibonacci
I Numeri di Fibonacci possono essere trovati sommando le diagonali "storte", ottenute spostandosi ogni volta di una riga sotto e due numeri a sinistra. Esempio: oppure . Esiste anche un algoritmo per la determinazione dei coefficienti dei polinomi di Fibonacci. 1 1 1 1 1 1 1 1 1 1 1 10 9 45 8 36 120 7 28 84 210 6 21 56 126 252 5 15 35 70 126 210 4 10 20 35 56 84 120 3 6 10 15 21 28 36 45 2 3 4 5 6 7 8 9 10 1 1 1 1 1 1 1 1 1 1

Serie dei numeri politopici


Ogni diversa diagonale del triangolo rappresenta una successione di numeri n-topici (una estensione alle n-dimensioni dei numeri poligonali, per esempio la 2 diagonale composta dai numeri triangolari: 1,3,6,10,15,21,28,36,45,55,66,78,.. La 3 diagonale dai numeri tetraedrici (3 dimensioni), la 4 dai numeri pentatopici (4 dimensioni), la 5 dai numeri 5-topici (5 dimensioni), e cos via.[4] 1 1 1 1 1 1 1 1 1 1 1 1 1 1 13 12 78 11 66 286 10 55 220 715 9 45 165 495 8 36 120 330 7 28 84 210 6 21 56 126 252 5 15 35 70 126 210 4 10 20 35 56 84 120 3 6 10 15 21 28 36 45 2 3 4 5 6 7 8 9 10 1 1 1 1 1 1 1 1 1 1

462 462 330 165 55 11 1 792 924 792 495 220 66 12 1 1287 1716 1716 1287 715 286 78 13

Ogni numero nel triangolo di Tartaglia dunque identificato dalle coordinate n ed m. Vi una semplice relazione tra tutte le coppie di numeri adiacenti aventi posizione (n,m) ed (n+1,m1)

per esempio l'ottavo (8) numero tetraedrico (3-topico) moltiplicato 3 uguale al prodotto di 8 per il nono (9) numero triangolare (2-topico) (3*120 = 8*45) Il risultato che risale a Fermat e che il matematico considerava una "proposizione molto bella"[5] non che l'espressione della seguente

Triangolo di Tartaglia

65

Non estendibilit alla radice n-esima


Il principio di induzione un assioma della matematica valido per i numeri naturali. Un'estensione del principio ai numeri razionali o reali non fattibile, sebbene esistono propriet di numeri interi e razionali valide per ogni valore di n razionale o reale; tali propriet vengono dimostrate senza utilizzare tale principio; in teoria sarebbe quindi possibile estendere la costruzione del triangolo di Tartaglia anche per il calcolo di potenze razionali del binomio. Per la produttoria, la funzione fattoriale che da essa definita, il coefficiente binomiale che a sua volta si calcola con la funzione fattoriale, hanno un insieme di definizione pi ristretto, limitato ai numeri naturali. Ci impedisce di estendere il triangolo di Tartaglia ad esponenti frazionari e di avere una formula esatta per il calcolo delle radici di ordine n-esimo. D'altra parte, anche individuati i coefficienti col Triangolo di Tartaglia, resterebbero da definire le potenze (decrescenti in e crescenti in ) da attribuire nei diversi termini.

Nota storica
La costruzione del triangolo di Tartaglia era nota a matematici cinesi nel XIV secolo[1][6] e forse anche in epoca anteriore. In Italia prese il nome da Niccol Tartaglia, che lo descrisse in un suo diffuso trattato nella prima met del XVI secolo, ma in Francia e successivamente anche nel mondo anglosassone prende il nome da Blaise Pascal, che un secolo dopo, nel 1654, ne fece grande uso nei suoi studi sulla probabilit. In Germania invece comunemente attribuito a Stiefel che ne scrisse nel 1544. Nel triangolo presente "1" al primo livello, due volte "1" al secondo e poi gli altri numeri. Ci rappresenta nei numeri il passaggio dall'Uno alla Diade, tipicamente platonico. La Diade del secondo livello deriva da uno sdoppiamento dell'Uno. Tartaglia ebbe contatti con Cardano, autore del "De subtilitate" (1547) e il "De rerum varietate" (1557) che contengono una riflessione sulla natura tipicamente rinascimentale, ispirata dal neoplatonismo.

Note
[1] [2] [3] [4] [5] [6] Katz, V.J. (1992) A History Of Mathematics : An Introduction d'aprs http:/ / www. roma. unisa. edu. au/ 07305/ pascal. htm (EN) Pascal's Triangle (http:/ / mathworld. wolfram. com/ PascalsTriangle. html) in Wolfram MathWorld http:/ / www. artofproblemsolving. com/ Resources/ videos. php?type=counting#chapter13 John H. Conway, Richard K. Guy, Il libro dei numeri. Hoepli 1999 ISBN 88-203-2519-5. Andr Weil, Teoria dei numeri. Einaudi 1993 ISBN 88-06-12745-4 Giovanni Giuseppe Nicosia, Cinesi, scuola e matematica, 2010, pagina 60

Altri progetti
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Pascal's triangle

Calcolo combinatorio

66

Calcolo combinatorio
Il calcolo combinatorio il termine che denota tradizionalmente la branca della matematica che studia i modi per raggruppare e/o ordinare secondo date regole gli elementi di un insieme finito di oggetti. Il calcolo combinatorio si interessa soprattutto di contare tali modi, ovvero le configurazioni e solitamente risponde a domande quali "Quanti sono...", "In quanti modi...", "Quante possibili combinazioni..." eccetera. Pi formalmente, dato un insieme S di n oggetti si vuole contare le configurazioni che possono assumere k oggetti tratti da questo insieme. Prima di affrontare un problema combinatorio bisogna precisare due punti importanti: Se l'ordinamento importante, ovvero se due configurazioni sono le stesse a meno di un riordinamento ({x,y,z} uguale a {z,x,y}?) Se si possono avere pi ripetizioni di uno stesso oggetto, ovvero se uno stesso oggetto dell'insieme pu o meno essere riusato pi volte all'interno di una stessa configurazione.

Permutazioni
Permutazioni semplici (senza ripetizioni)
Una permutazione di un insieme di oggetti una presentazione ordinata, cio una sequenza, dei suoi elementi nella quale ogni oggetto viene presentato una ed una sola volta. Per contare quante siano le permutazioni di un insieme con n oggetti, si osservi che il primo elemento della configurazione pu essere scelto in n modi diversi, il secondo in (n-1), il terzo in (n-2) e cos via sino all'ultimo che potr essere preso in un solo modo essendo l'ultimo rimasto. Dunque, indicando con Pn il numero delle possibili permutazioni di un insieme di n elementi, si ottiene che esse sono esattamente n! (n fattoriale):

Ad esempio le permutazioni degli elementi dell'insieme {a,b,c} sono 3! = 6: abc, bac ,bca, cab, cba, acb. Un altro esempio pu essere il seguente: In quanti modi possibili possiamo anagrammare la parola -ATRIO-, contando anche le parole prive di significato: ATRIO n=5; P5= 5 * 4 * 3 * 2 * 1 = 120 modi di anagrammare la parola ATRIO. N.B: nella parola ATRIO nessuna lettera si ripete. Per completare meglio la definizione di fattoriale fissiamo anche i valori seguenti: 1! = 1 e 0! = 1.

Permutazioni con ripetizioni


In alcuni casi un insieme pu contenere elementi che si ripetono. In questo caso alcune permutazioni di tali elementi saranno uguali tra loro. Indicando con k1, k2 fino a kr il numero di volte che si ripetono rispettivamente gli elementi 1, 2 fino a r, dove r n, le permutazioni uniche (non ripetute) divengono:

Si tratta, infatti, di dividere il numero delle distinte permutazioni di n oggetti per il numero delle permutazioni di k1! presenze di uno stesso elemento, tutte uguali tra loro, poi per il numero delle permutazioni di k2! presenze di uno stesso elemento, ecc. La formula vale in realt per qualsiasi permutazione, anche senza ripetizioni di elementi. Infatti, se assumiamo k1, k2 fino a kr uguali ad 1 (cio gli elementi si ripetono una sola volta), otteniamo esattamente la formula delle permutazioni semplici, perch si ha:

Calcolo combinatorio Ad esempio: In quanti modi possiamo anagrammare la parola FARFALLA. Le lettere contenute nella parola sono n=8; gli elementi che si ripetono sono F (k1=2) ; A (k2=3); L (k3=2) Utilizzando la formula, avremo:

67

Dismutazioni
Sono dette dismutazioni le permutazioni prive di punti fissi, con formula:

Disposizioni
Disposizioni semplici (senza ripetizioni)
Una disposizione semplice di lunghezza k di elementi di un insieme S di n oggetti, con k n, una presentazione ordinata di k elementi di S nella quale non si possono avere ripetizioni di uno stesso oggetto. Per avere il numero di queste configurazioni si considera che il primo componente di una tale sequenza pu essere scelto in n modi diversi, il secondo in (n-1) e cos via, sino al k-esimo che pu essere scelto in (n-k+1) modi diversi. Pertanto il numero Dn,k di disposizioni semplici di k oggetti estratti da un insieme di n oggetti dato da:

Ad esempio le disposizioni semplici di lunghezza 2 degli elementi dell'insieme {1,2,3,4,5} sono 5!/(5-2)! = 5!/3! = 120/6 = 20: 12, 13, 14, 15, 21, 23, 24, 25, 31, 32, 34, 35, 41, 42, 43, 45, 51, 52, 53, 54. Si osserva che le permutazioni sono casi particolari delle disposizioni semplici: le permutazioni di un insieme di n oggetti sono le disposizioni semplici di tali oggetti di lunghezza n. In effetti per il loro numero:

Disposizioni con ripetizioni


Una presentazione ordinata di elementi di un insieme nella quale si possono avere ripetizioni di uno stesso elemento si dice disposizione con ripetizioni. Cerchiamo il numero delle possibili sequenze di k oggetti estratti dagli elementi di un insieme di n oggetti, ognuno dei quali pu essere preso pi volte. Si hanno n possibilit per scegliere il primo componente, n per il secondo, altrettante per il terzo e cos via, sino al k-esimo che completa la configurazione. Il numero cercato pertanto:

Ad esempio le disposizioni con ripetizione di lunghezza 2 degli elementi di {1,2,3,4,5} sono 52 = 25: Si osserva che pu anche essere k > n

Calcolo combinatorio

68

Combinazioni
Combinazioni semplici (senza ripetizioni)
Si chiama combinazione semplice una presentazione di elementi di un insieme nella quale non ha importanza l'ordine dei componenti e non si pu ripetere lo stesso elemento pi volte. La collezione delle combinazioni di k elementi estratti da un insieme S di n oggetti distinti si pu considerare ottenuta dalla collezione delle disposizioni semplici di lunghezza k degli elementi di S ripartendo tali sequenze nelle classi delle sequenze che presentano lo stesso sottoinsieme di S e scegliendo una sola sequenza da ciascuna di queste classi. Ciascuna delle suddette classi di sequenza di lunghezza k contiene k! sequenze, in quanto accanto a una sequenza si hanno tutte e sole quelle ottenibili permutando i componenti della . Quindi il numero delle combinazioni semplici di n elementi di lunghezza k si ottiene dividendo per k! il numero delle disposizioni semplici di n elementi di lunghezza k:

Di solito tra le diverse disposizioni semplici di una classe si sceglie come combinazione rappresentativa la sequenza nella quale i componenti compaiono in ordine crescente (tutti gli insiemi finiti possono avere gli elementi ordinati totalmente, ovvero associati biunivocamente ai primi interi positivi). Ad esempio le combinazioni semplici di lunghezza 4 degli elementi di {1,2,3,4,5,6} sono 6!/(4!2!) = 15: 1234, 1235, 1236, 1245, 1246, 1256, 1345, 1346, 1356, 1456, 2345, 2346, 2356, 2456, 3456.

Combinazioni con ripetizioni


Quando l'ordine non importante ma possibile avere componenti ripetute si parla di combinazioni con ripetizione. Il numero di combinazioni con ripetizione di n oggetti di classe k uguale a quello delle combinazioni senza ripetizione di n+k-1 oggetti di classe k ed quindi uguale a: . Ad esempio, vi sono modi di distribuire a 2 bambini distinguibili 4 caramelle indistinguibili,

contando anche i casi in cui uno dei bambini non riceve nessuna caramella: 0-4, 1-3, 2-2, 3-1, 4-0. Equivalentemente, le combinazioni con ripetizioni informano sul numero di possibili n-ple di addendi non negativi la cui somma sia k (considerando diverse n-ple in cui eguali addendi compaiano in ordine differente); nel suddetto esempio, sono mostrate le cinque diverse duple di somma 4. Inoltre, le combinazioni con ripetizioni per n oggetti di classe k rappresentano il numero delle derivate parziali di ordine k calcolabili per una funzione a n variabili.

Voci correlate
Combinatoria Permutazione Disposizione Combinazione Dismutazione (matematica) Binomio di Newton

Calcolo combinatorio

69

Altri progetti
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/ Category:Combinatorics

70

Tappe in linea
Poker
Poker Luogo origine Statunitense [1] Regole N giocatori Squadre Giro Azzardo Mazzo 3, 4, 5, 6 (versione italiana) No Senso orario S [1] 52 carte in numero variabile dipendente dal numero dei giocatori [1]

Gerarchia semi Cuori, Quadri, Fiori, Picche Gerarchia carte A, K, Q, J, 10, 9, 8, 7, 6, 5, 4, 3, 2

David Sklansky alle World Series di Poker del 1979

Se non riesci a individuare il pollo al tavolo da poker nella prima mezz'ora, allora il pollo sei tu.

Il poker una famiglia di giochi di carte nella quale alcune varianti sono classificabili come gioco d'azzardo, altre come poker sportivo. Tali giochi sono caratterizzati da un sistema di combinazioni formate con le carte di ciascun giocatore (il cui confronto determina il vincitore di ogni mano) e da un meccanismo di puntate successive che offre molte possibilit tattiche e di influenza sugli altri giocatori, consentendo in particolare di ritirarsi con perdite contenute dalle mani che non si ritiene di poter vincere. Il grande successo del poker dovuto al fatto che l'abilit del giocatore molto pi importante rispetto ad altri giochi d'azzardo, al punto da consentire l'esistenza di giocatori professionisti: la fortuna ovviamente determinante per le singole mani ma la valutazione delle probabilit, l'osservazione del comportamento degli altri giocatori al fine di

Poker intuire le loro combinazioni e l'esecuzione di bluff per indurli in errore fanno la differenza nell'arco di una partita. Se le puntate sono costituite da denaro vero si tratta di cash game, ossia di gioco d'azzardo. A partire dall'inizio degli anni novanta si aperta per i giocatori la possibilit di giocare a Poker online, cio collegandosi mediante Internet a sale da Poker organizzate e sedendosi a tavoli virtuali ai quali si gioca contro altre persone connesse dal proprio computer domestico. Tale sistema di gioco cresciuto progressivamente negli anni successivi, e costituisce oggi la principale modalit con la quale il poker praticato a livello mondiale.

71

Il gioco
Il poker giocato in una moltitudine di specialit e varianti, ma tutte seguono una medesima logica di gioco. Le carte vengono distribuite in senso orario e allo stesso modo cambia il mazziere (dealer). Egli viene generalmente segnalato con un bottone che diventa unico elemento per identificarlo e determinare, quindi, le puntate obbligatorie o i turni di gioco. Per ogni mano uno o pi giocatori devono porre una puntata obbligatoria (cip) che serve alla creazione di un piatto iniziale che i giocatori potranno contendersi. Il mazziere distribuisce le carte, coperte o scoperte, in base alle regole della specialit giocata. Quindi cominciano, sempre secondo le regole della specialit giocata, i giri di scommesse, nel quale a turno, ogni giocatore ha facolt di "parlare", ossia di eseguire un'azione. Si gioca sempre in senso orario. Le possibilit principali sono le seguenti: puntare (bet): il primo giocatore che apre il giro di scommesse mette una certa somma nel piatto; bussare o passare/dare la parola (check): il primo giocatore che apre il giro di scommesse pu decidere al momento di non puntare, il giocatore successivo a colui che ha passato decider se puntare o passare e cos vale anche per gli altri giocatori. Se tutti i giocatori passano il giro di scommesse chiuso. Un giocatore non pu passare se il giocatore precedente ha puntato; vedere o chiamare (call): dopo che il giocatore ha puntato, gli altri giocatori sono obbligati a puntare almeno altrettanto oppure uscire dalla mano. rilanciare (raise): un giocatore pu scommettere una somma maggiore del minimo richiesto per restare in gioco, ovviamente tutti gli altri giocatori sono tenuti a vedere o lasciare; lasciare (fold): un giocatore lascia qualora non sia intenzionato a vedere la puntata o il rilancio, ovvero consegna le carte al mazziere e rinuncia al piatto, perdendo quanto aveva scommesso in precedenza. Un giocatore pu lasciare anche se ha possibilit di passare, ma questa scelta non viene mai presa in considerazione perch non ha alcun senso. Alla fine dell'ultimo turno di puntate resta un solo giocatore (ha fatto l'unica puntata e tutti gli altri hanno passato, o ha rilanciato e gli altri rimasti hanno lasciato) o pi giocatori che hanno puntato tutti la stessa somma (vedendo la prima puntata o un rilancio successivo); in questo secondo caso, tipicamente pi raro, avviene lo showdown: si mostrano le carte dei giocatori e si confronta il punto di ciascuno: vince il punto di maggior valore a seconda della variante. Normalmente il valore corrisponde alla forza della mano. Alcuni giochi, come l'Omaha 8 e lo Stud 8, prevedono la ripartizione del piatto in parti uguali fra la mano col valore pi alto e quella col valore pi basso. In altri giochi, fra cui Razz, 2-7 Single Draw e 2-7 Triple Draw, il piatto viene assegnato al giocatore che ha la mano pi bassa. Il giocatore che in possesso del punto di maggior valore vince la mano e ha diritto di impossessarsi delle fiches (o dei contanti) dei giocatori che hanno lasciato in precedenza e di quelli che sono stati sconfitti allo showdown. Nel caso in cui due o pi giocatori fossero in possesso dello stesso punto (caso molto raro), il piatto viene diviso (split pot) in parti uguali ed ognuno dei suddetti giocatori ha diritto ad una parte del piatto. Normalmente, durante le partite di poker vige la regola delle "chip al tavolo" secondo la quale, durante una mano, possono essere puntate esclusivamente le chip presenti sul tavolo sin dall'inizio della mano in questione. Ne consegue che un giocatore non in grado di coprire una puntata o un rilancio effettuato da un avversario, in quanto non possiede abbastanza chip, costretto ad abbandonare la mano. Quando un giocatore ha puntato tutte le proprie

Poker chip nel piatto, esso considerato all-in; ulteriori puntate che il giocatore non in grado di coprire, nel caso in cui nella mano fossero coinvolti pi di due giocatori, andranno a costituire un secondo piatto per il quale competeranno solo i giocatori che vi hanno puntato, quindi il giocatore precedentemente in all-in ne escluso.[2] In ordine cronologico, il piatto primario prende il nome di "Main Pot", mentre i piatto secondari, che vanno quindi a costituirsi successivamente, sono detti "Side Pot". Le specialit del poker possono essere raggruppate in tre categorie: Draw poker Ogni giocatore riceve cinque (nel poker tradizionale) o pi carte tutte coperte. I giocatori possono cambiare una o pi carte per una o pi volte. Stud poker I giocatori ricevono le carte una alla volta, alcune coperte altre scoperte. La maggior differenza tra lo stud e il draw poker l'impossibilit di cambiare le carte. Community card poker Ogni giocatore riceve un determinato numero di carte coperte (due nel Texas Hold'em o quattro nell'Omaha) e pu utilizzare un determinato numero di carte comuni per comporre il proprio punto.

72

Varianti del poker


Ogni specialit del poker pu avere diverse varianti di gioco: a limite fisso (limit betting): sono possibili solo tre rilanci per round di scommessa, purch vi siano pi di 2 giocatori; inoltre i rilanci stessi sono bloccati con un limite. La scommessa minima raddoppiata solitamente con il terzo giro di scommessa. limite al piatto (pot limit betting): diffuso in Europa, al giocatore impedito di rilanciare una cifra superiore al valore del piatto in quel momento. Serve per evitare che i piatti si ingrossino nel primo giro di scommessa. senza limiti (no limit): non ci sono limiti di scommessa. misto (mixed): si alternarno momenti con variante senza limite e a limite fisso. high-low split

Poker

73

Storia
Le origini del gioco del poker sono tuttora oggetto di dibattito. Assomiglia molto a un gioco persiano ed stato probabilmente insegnato ai colonizzatori francesi di New Orleans dai marinai persiani. Il nome deriva, probabilmente, dal termine francese poque (ingannare), che deriva a sua volta dal tedesco pochen. Non chiaro se il poker derivi direttamente da giochi con quei nomi, tuttavia viene considerato un insieme di tutti questi giochi che ne hanno influenzato lo sviluppo fino al poker che conosciamo ai giorni nostri. La pi antica testimonianza si ha dall'attore inglese Joseph Crowel, che lo segnala nel New Orleans, giocato con un mazzo di 20 carte e da 4 giocatori che scommettono su chi ha la combinazione vincente. Il primo libro di Green Jonathan H., An Exposure of the Arts and Miseries of Gambling (G.B. Zieber, Filadelfia, 1843) che ne descrive la diffusione da l fino al Mississippi, dove il gioco era un comune passatempo. Subito dopo questa diffusione si inizia ad usare il mazzo francese con 54 carte e si ha l'introduzione del colore. Durante la guerra civile americana si hanno numerose aggiunte e le prime varianti del gioco, draw poker, stud poker e community card poker), seguite da numerose altre come il razz (variante in cui vince il punto pi basso) o lo Hi-Lo (variante in cui a vincere il piatto sono 2 o pi giocatori). La diffusione del gioco negli altri continenti attribuito ai militari americani. Nel primo novecento il gioco pi diffuso il 7 card stud, ma dopo gli anni 50 si impongono i poker a carte comunitarie, in primis il Texas Hold'em seguito dall'Omaha. La nuova modalit di gioco, il torneo, comincia a diffondersi nei casino americani dopo il primo WSOP (mondiale di poker che si svolge tutti gli anni a Las Vegas) e di l a poco si ha anche l'uscita dei primi libri di strategia come Super/System di Doyle Brunson (ISBN 1-58042-081-8) e The Book of Tells di Mike Caro (ISBN 0-89746-100-2), seguito poco dopo da The Theory of Poker di David Sklansky (ISBN 1-880685-00-0).

Doyle Brunson, due volte campione del mondo (1976, 1977, secondo nel 1980)

Phil Hellmuth Jr, campione del mondo nel 1989, detiene il primato di braccialetti WSOP vinti:11

Negli USA la popolarit del poker ha un'impennata senza precedenti durante i primi anni del XXI secolo, con l'avvento del poker on-line e l'introduzione della telecamera per le carte coperte utilizzata durante i maggiori eventi, ci che ha contribuito a far diventare il gioco uno sport spettacolare. Gli spettatori possono ora seguire e comprendere l'azione dei giocatori durante i maggiori eventi trasmessi, come il WSOP o il WPT (World Poker Tour), che hanno riscosso enorme successo nella TV satellitare e via cavo. Questa tendenza sta avendo riscontro anche in Europa in cui l'European Poker Tour giunto alla sua ottava edizione[3] contribuendo all'enorme diffusione a cui si assiste anche in Italia, dove sono sorte le prime associazioni come Italian Rounders. Nel giugno 2006, il Casin di Sanremo stata la prima casa da gioco italiana ad ospitare un torneo di Texas Hold'em Poker; ha poi ospitato la tappa italiana dell'European Poker Tour.

Poker La formula di gioco utilizzata in questi casi quella del torneo (per la formula del torneo vedi poker sportivo): il giocatore paga l'iscrizione e riceve delle fiches (chiamate chip) con le quali gioca; finite le fiches il giocatore eliminato, ad eccezione dei tornei dove consentito il rebuy. Gli ultimi ad essere eliminati sono i primi classificati del torneo, e si dividono l'ammontare del montepremi (alimentato dalle iscrizioni). Negli ultimi anni le WSOP, il WPT e l'European Poker Tour hanno avuto una notevole crescita anche grazie ai numerosi satelliti organizzati on line, i quali permettono a chiunque di accedere a questi eventi che una volta erano prerogativa di pochi a causa dei costi molto elevati. I campioni del mondo del 2003 e 2004, rispettivamente Chris Moneymaker e Greg Raymer, hanno vinto la loro partecipazione al mondiale (Main Event WSOP) giocando un satellite on line. Anche in Italia il poker in TV ha attecchito: Sportitalia, Sky, Italia 1, 7 Gold e POKERItalia24 (sul digitale terrestre) trasmettono partite di poker che riscuotono un notevole successo tra i telespettatori. Tra i campioni italiani di maggior spessore troviamo Max Pescatori vincitore di due braccialetti alle WSOP, uno nel 2006 e uno nel 2008[4], Luca Pagano che detiene il record delle presenze a premio nell'EPT (ben 18, di cui 6 tavoli finali)[5], Dario Alioto vincitore del torneo di Omaha alle WSOP Europe del 2007[6] e Dario "Caterpillar" Minieri, vincitore dell'evento $2.500 No Limit Hold'Em alle WSOP del 2008[7]. Oltre Pescatori, Alioto e Minieri, l'unico altro italiano ad aver vinto un braccialetto alle WSOP Valter Farina, che si aggiudicato l'evento $1.500 Seven Card Stud nel 1995. Viene spesso contrassegnato con la bandiera italiana agli eventi internazionali Jeff Lisandro, vincitore di ben cinque braccialetti, ma in realt il giocatore australiano, e ha origini italiane.

74

Note
[1] [2] [3] [4] Giochi di carte, di Marina Bono, 1 edizione luglio 2010, pag. 116, ed. KeyBook, ISBN 978-88-6176-254-1. Regole del poker (http:/ / www. pokerstars. it/ poker/ rules/ ). PokerStars EPT Official Page (http:/ / www. europeanpokertour. com/ ). European Poker Tour The Hendon Mob - Max Pescatori (http:/ / pokerdb. thehendonmob. com/ player. php?a=r& n=3195& sort=place& dir=asc). The Hendon Mob [5] The Hendon Mob - Luca Pagano (http:/ / pokerdb. thehendonmob. com/ player. php?a=r& n=326). The Hendon Mob [6] The Hendon Mob - Dario Alioto (http:/ / pokerdb. thehendonmob. com/ player. php?a=r& n=50080). The Hendon Mob [7] The Hendon Mob - Dario Minieri (http:/ / pokerdb. thehendonmob. com/ player. php?a=r& n=53606& sort=place& dir=asc). The Hendon Mob

Voci correlate
Regole e meccanica del poker Punti del poker Teorema fondamentale del poker Specialit e varianti del poker Poker sportivo WSOP European Poker Tour Federazione Italiana Gioco Poker Cash game Gioco Giochi con le carte Giocatore professionista di poker Skill games PokerTH

Lista di videogiochi di poker

Poker

75

Altri progetti
Wikibooks contiene testi o manuali: http://it.wikibooks.org/wiki/Texas Hold'em Wikizionario contiene la voce di dizionario: http://it.wiktionary.org/wiki/poker Wikiquote contiene citazioni: http://it.wikiquote.org/wiki/Poker Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Poker

Collegamenti esterni
Poker (http://www.dmoz.org/World/Italiano/Giochi/Carte/Poker) su Open Directory Project ( Segnala (http:// www.dmoz.org/public/suggest?cat=World/Italiano/Giochi/Carte/Poker) su DMoz un collegamento pertinente
all'argomento "Poker")

Federazione Italiana Gioco Poker (http://www.figp.it)

Problema di Monty Hall


Il problema di Monty Hall un famoso problema di teoria della probabilit, legato al gioco a premi americano Let's Make a Deal. Prende il nome da quello del conduttore dello show, Maurice Halprin, noto con lo pseudonimo di Monty Hall. Nel gioco vengono mostrate al concorrente tre porte chiuse; dietro ad una si trova un'automobile, mentre ciascuna delle altre due nasconde una capra. Il giocatore pu scegliere una Dopo la scelta del giocatore, il presentatore apre una porta (egli sa dove si trova l'auto) delle tre porte, vincendo il premio mostrando una capra. Qualsiasi cosa ci sia dietro la scelta iniziale del giocatore, egli cambiando scelta ha il 66,7% di probabilit di vincere l'auto, non cambiandola ne avrebbe corrispondente. Dopo che il giocatore il 33,3%. ha selezionato una porta, ma non l'ha ancora aperta, il conduttore dello show che conosce ci che si trova dietro ogni porta apre una delle altre due, rivelando una delle due capre, e offre al giocatore la possibilit di cambiare la propria scelta iniziale, passando all'unica porta restante. Cambiare porta migliora le chance del giocatore di vincere l'automobile? La risposta s: cambiando le probabilit di successo passano da 1/3 a 2/3. Il problema anche noto come paradosso di Monty Hall, poich la soluzione pu apparire controintuitiva, ma non si tratta di una vera antinomia, in quanto non genera contraddizioni logiche.

Problema di Monty Hall

76

Storia del problema e sua soluzione


Il problema
Una famosa formulazione del problema contenuta in una lettera del 1990 di Craig F. Whitaker, indirizzata alla rubrica di Marilyn vos Savant nel settimanale Parade: Supponi di partecipare a un gioco a premi, in cui puoi scegliere tra tre porte: dietro una di esse c' un'automobile, dietro le altre, capre. Scegli una porta, diciamo la numero 1, e il conduttore del gioco a premi, che sa cosa si nasconde dietro ciascuna porta, ne apre un'altra, diciamo la 3, rivelando una capra. Quindi ti domanda: "Vorresti scegliere la numero 2?" Ti conviene cambiare la tua scelta originale? Quella proposta sopra una formulazione del problema data da Steve Selvin, in una lettera all'American Statistician (febbraio 1975). Cos impostato, il problema in realt una variazione sul tema del gioco a premi originale; Monty Hall in effetti apriva una porta dietro cui si trovava una capra per aumentare la tensione, ma non consentiva ai giocatori di cambiare la propria scelta originale. Come scrisse lo stesso Monty Hall a Selvin: E se mai dovesse partecipare al mio gioco, le regole sarebbero le stesse per lei - nessuno scambio dopo la scelta originale. (letsmakeadeal.com) [1] Marilyn vos Savant risolse il problema correttamente; l'episodio fece un certo scalpore, in quanto diversi accademici non riconobbero la correttezza della soluzione proposta dalla vos Savant finch questa non la spieg nel dettaglio in un successivo articolo. La successiva lettera di Selvin all'America Statistician (agosto, 1975) battezza il problema come "Problema di Monty Hall". Un problema essenzialmente identico appare in ogni modo nella rubrica Mathematical Games di Martin Gardner nel 1959, col nome di "Problema dei tre prigionieri". Questo problema era stato ideato dal matematico francese Joseph Louis Franois Bertrand che lo aveva proposto nel suo libro Calcul des Probabilits (1889) ed era noto come il Paradosso delle tre scatole di Bertrand. Quella che segue, per concludere, una formulazione del problema priva di ambiguit, con vincoli espliciti concernenti il comportamento del conduttore, presentata da Mueser e Granberg: Dietro ciascuna di tre porte c' un'automobile o una capra (due capre, un'automobile in tutto); la probabilit che l'automobile si trovi dietro una data porta identica per tutte le porte; Il giocatore sceglie una delle porte; il suo contenuto non rivelato; Il conduttore sa ci che si nasconde dietro ciascuna porta; Il conduttore deve aprire una delle porte non selezionate, e deve offrire al giocatore la possibilit di cambiare la sua scelta; Il conduttore aprir sempre una porta che nasconde una capra; Cio, se il giocatore ha scelto una porta che nasconde una capra, il conduttore aprir la porta che nasconde l'altra capra; Se invece il giocatore ha scelto la porta che nasconde l'automobile, il conduttore sceglie a caso una delle due porte rimanenti; Il conduttore offre al giocatore la possibilit di reclamare ci che si trova dietro la porta che ha scelto originalmente, o di cambiare, reclamando ci che si trova dietro la porta rimasta. Le possibilit di vittoria aumentano per il giocatore se cambia la propria scelta?

Problema di Monty Hall

77

Soluzione
La risposta s; le probabilit di trovare l'automobile raddoppiano.[2][3] La soluzione pu essere illustrata come segue. Ci sono tre scenari possibili, ciascuno avente probabilit 1/3: Il giocatore sceglie la capra numero 1. Il conduttore sceglie l'altra capra, la numero 2. Cambiando, il giocatore vince l'auto. Il giocatore sceglie la capra numero 2. Il conduttore sceglie l'altra capra, la numero 1. Cambiando, il giocatore vince l'auto. Il giocatore sceglie l'auto. Il conduttore sceglie una capra, non importa quale. Cambiando, il giocatore trova l'altra capra. Nei primi due scenari, cambiando il giocatore vince l'auto; nel terzo scenario il giocatore che cambia non vince. Dal momento che la strategia "cambiare" porta alla vittoria in due casi su tre, le chance di vittoria adottando la strategia sono 2/3. Una strategia di soluzione alternativa considerare che se si suppone di cambiare, il solo caso in cui si perde quello in cui originariamente si scelta l'automobile e quindi la domanda del conduttore pu essere considerata un invito a invertire le probabilit di successo con quelle di insuccesso. Il problema sarebbe diverso se non ci fosse una scelta iniziale, o se il conduttore scegliesse una porta a caso, o se il conduttore potesse offrire al giocatore di cambiare a seconda della scelta iniziale del giocatore. Alcune formulazioni del problema, e significativamente quella del settimanale Parade, non escludono esplicitamente queste possibilit; diversi testi di probabilit elementare riportano varianti del problema. Per esempio, se il conduttore offre la possibilit di cambiare solo se il giocatore inizialmente ha scelto l'automobile, le chance di vittoria associate alla strategia "cambiare" sono, ovviamente, dello 0%. Nella formulazione proposta nella sezione precedente, il giocatore che cambia ha una probabilit di vittoria pari a 2/3 precisamente perch il conduttore deve offrirgli la possibilit di cambiare, e deve rivelare una capra.

Aiuti alla comprensione del problema


L'obiezione pi comune alla soluzione fornita dall'idea che, per varie ragioni, il passato possa essere ignorato quando si valutano delle probabilit. Dunque, la scelta della prima porta e il ragionamento del conduttore circa quale porta aprire si possono trascurare; dal momento che si pu scegliere tra due porte, la probabilit di scegliere quella giusta dovrebbe essere pari al 50%. Per confutare ci possiamo porci una domanda. Ipotizziamo che un giocatore adotti la strategia di non accettare mai l'offerta del conduttore, qualunque essa sia. Se le probabilit di vincita all'inizio sono del 33%, ha senso pensare che queste passino automaticamente al 50% solo perch il conduttore ha chiesto qualcosa che il giocatore non ascolta neanche? Ovviamente no. Sebbene ignorare il passato funzioni in certi giochi, come ad esempio nel lancio di una moneta, non funziona necessariamente in tutti i giochi. Un rilevante controesempio fornito dal conteggio delle carte uscite in certi giochi di carte, che consente ai giocatori di sfruttare a proprio vantaggio l'informazione riguardante eventi passati. Questo tipo di informazione utile nella soluzione del problema di Monty Hall, come illustrato negli esempi che seguono. Infatti, pi facile (probabile) che il giocatore si trovi ad aver scelto (prima scelta nel passato) una capra (aveva due possibilit su tre per una capra contro una possibilit su tre per l'automobile). Quello che realmente fa la differenza la conoscenza del futuro o almeno la restrizione dei possibili eventi futuri. Mentre nel lancio della moneta le probabilit di uscita testa o croce non dipendono dai lanci passati, negli esempi di carte (contare le carte) o del problema di Monty Hall i possibili eventi futuri si "riducono" dopo un preciso episodio. Nel caso del contare le carte, l'uscita di una carta modifica le possibili carte che possono ancora uscire, quindi ne modifica la probabilit. Nel caso del problema di Monty Hall, l'esclusione da parte del conduttore di una scelta certamente "sconveniente" rende attraente la porta rimanente pi interessante della prima porta scelta quando non si

Problema di Monty Hall aveva nessuna conoscenza.

78

Diagrammi di Eulero-Venn
La probabilit che l'auto sia dietro la porta restante pu essere calcolata con l'ausilio del diagramma di Venn illustrato sotto. Dopo aver scelto la porta 1, per esempio, il giocatore ha probabilit 1/3 di aver selezionato la porta con l'auto, il che assegna una probabilit pari a 2/3 alle due porte restanti. Si osservi che c' una probabilit pari a 1 di trovare una capra dietro almeno una delle due porte non selezionate dal giocatore, dal momento che c' una sola auto in palio.

Si supponga che il conduttore apra la porta 3. Dal momento che pu solo aprire una porta che nasconde una capra, e non apre una porta a caso, questa informazione non ha effetto sulla probabilit che l'auto sia dietro la porta originariamente selezionata, che resta pari a 1/3. Ma l'auto non dietro la porta 3, dunque l'intera probabilit di 2/3 delle due porte non selezionate dal giocatore ora assegnata alla sola porta 2, come mostrato sotto. Un modo alternativo per arrivare a questa conclusione osservare che se l'auto si trova dietro la porta 2 o dietro la porta 3, aprire la porta 3 implica che l'auto si trova dietro la 2.

Osserviamo che il problema non cambierebbe se il conduttore, anzich aprire una porta, offrisse al giocatore la possibilit di cambiare la porta scelta con entrambe le altre. In questo caso evidente che la probabilit 2/3. Viceversa, la situazione cambierebbe completamente se il presentatore, dopo aver escluso la porta 3, scambiasse casualmente i premi nascosti dietro le porte 1 e 2. In questo caso il giocatore avrebbe probabilit 1/2 di vincere sia se mantiene la porta 1, sia se la cambia. Senza questo rimescolamento le probabilit restano 1/3 e 2/3.

Problema di Monty Hall

79

Teorema di Bayes
Un'analisi del problema attraverso il teorema di Bayes rende esplicito l'effetto delle ipotesi sopra indicate. Si consideri, senza ledere la generalit dell'analisi, il caso in cui la porta 3 stata aperta dal conduttore mostrando una capra, e che il concorrente abbia selezionato la porta 1. La probabilit che l'automobile si trovi dietro la porta 2 (ovvero la probabilit di trovare l'auto dopo aver cambiato la scelta iniziale) ove A1 l'evento che l'auto si trovi dietro alla porta 1 e C3 l'evento che il conduttore selezioni una capra dietro la porta 3. La probabilit (a priori, utilizzando il gergo della statistica bayesiana) che l'automobile si trovi dietro la porta 1, che si denota con , chiaramente 1/3, in quanto l'auto ha a priori la stessa probabilit di trovarsi dietro ciascuna porta. La probabilit che il conduttore dello show trovi una capra dietro la porta 3, , altrettanto chiaramente 1, visto che il conduttore sapeva in anticipo dove si celava l'automobile e pertanto sa quale porta vada selezionata per trovare la capra. La probabilit che il conduttore selezioni una porta con dietro la capra posto ("a posteriori") che l'automobile sia dietro la porta 1, , 1 per ovvi motivi. Pertanto, sfruttando il teorema di Bayes: La probabilit di trovare l'auto cambiando la scelta iniziale, dopo che il conduttore (onnisciente) ha mostrato una porta con dietro la capra :

Spiegazione del ragionamento intuitivo


Analisi della soluzione
Per arrivare al ragionamento intuitivo necessaria l'analisi sotto un altro aspetto delle parole del conduttore: "Apro una delle due porte che non hai scelto, in cui vi una capra. Vuoi cambiare la tua scelta?". Sapendo a priori la soluzione, le parole dette dal conduttore possono essere tradotte in: "Se hai scelto un'automobile (1/3) ti faccio perdere facendoti scegliere una capra (100%), se invece hai scelto una delle due capre (2/3) ti faccio vincere scegliendo l'automobile (100%). Vuoi cambiare la tua scelta?". Come vediamo, inizialmente i casi sono: A: il giocatore sceglie la prima capra, perdendo (1/3); B: il giocatore sceglie la seconda capra, perdendo (1/3); C: il giocatore sceglie l'automobile, vincendo (1/3);con una probabilit di vincita del 1/3. Cambiando la scelta ci accorgiamo che: A: il giocatore aveva scelto la prima capra, la seconda capra viene scoperta, il giocatore sceglie l'automobile vincendo (1/3); B: il giocatore aveva scelto la seconda capra, la prima capra viene scoperta, il giocatore sceglie l'automobile vincendo (1/3); C: il giocatore aveva scelto l'automobile, viene scoperta una delle due capre, il giocatore sceglie la capra rimanente perdendo (1/3);con una probabilit di vincita di 2/3 (sia A che B), possiamo rilevare che questo accade solo perch dato che i casi di perdita sono due, eliminandone uno, le possibilit, cambiando la scelta variano da: A e B perdenti e C vincente, a C perdente e AB vincente. Perci, essendo partiti da 3 possibilit iniziali, di cui due uguali, avendo quindi solo 2 risultati finali, le probabilit passano dal 1/3 a 2/3 e non dal 1/3 al 50%, cosa che sarebbe accaduta se le situazioni iniziali fossero 3 differenti, in modo da avere obbligatoriamente 3 risultati finali di modo che l'apertura di una delle tre porte avrebbe eliminato una delle opzioni finali e iniziali e non solo di quelle iniziali.

Problema di Monty Hall

80

Il ragionamento intuitivo
La situazione che d'intuito ci viene a pensare questa, che purtroppo induce ogni ragionamento logico collegato a non riuscire a spiegare il problema di Monty Hall: Partiamo dalla situazione che vi un secondo concorrente a partecipare al gioco a premi per rappresentare la seconda situazione differente da quella del primo, il primo concorrente ha gi vinto la macchina, e al posto di una capra viene messa una moto in una porta. Ora a seconda di cosa sceglier il concorrente, vincer (scegliendo la porta con l'automobile che avrebbe dovuto vincere il primo concorrente), vi sar un pareggio (entrambi vinceranno: il primo concorrente vincer l'automobile e il secondo la moto) oppure perder (scegliendo la capra, lasciando vincere il primo concorrente). Supponi ora di partecipare a un gioco a premi, in cui puoi scegliere tra tre porte: dietro una di esse c' un'automobile, dietro un'altra una moto e infine dietro l'ultima, una capra. Scegli una porta, diciamo la numero 1, e il conduttore del gioco a premi, che sa cosa si nasconde dietro ciascuna porta, ne apre un'altra, diciamo la 3. Quindi ti domanda: "Vorresti scegliere la numero 2?" Ti conviene cambiare la tua scelta originale? Dietro ciascuna di tre porte c' un'automobile o una moto o una capra; la probabilit che l'automobile si trovi dietro una data porta identica per tutte le porte; Il giocatore sceglie una delle porte; il suo contenuto non rivelato; Il conduttore sa ci che si nasconde dietro ciascuna porta; Il conduttore deve aprire una delle porte non selezionate, e deve offrire al giocatore la possibilit di cambiare la sua scelta; Il conduttore aprir una delle porte non scelte a caso; Cio, indipendentemente da ci che ha scelto il giocatore il conduttore aprir una porta, eliminando la possibilit che la condizione finale correlata alla porta appena aperta si verifichi; Il conduttore offre al giocatore la possibilit di reclamare ci che si trova dietro la porta che ha scelto originalmente, o di cambiare, reclamando ci che si trova dietro la porta rimasta. Che cambiamento si ha? Le possibilit di vittoria aumentano?

La soluzione al ragionamento intuitivo


La risposta s; le probabilit di trovare l'automobile arrivano al 50%. La differenza con il problema precedente sta nelle probabilit di perdita o di pareggio, che aumentano anch'esse fino al 50%. La soluzione pu essere illustrata come segue. Ci sono sei scenari possibili, ciascuno avente probabilit 1/6: Il giocatore sceglie la capra. Il conduttore elimina l'automobile. Cambiando, il giocatore pareggia, scegliendo la moto. Il conduttore elimina la moto. Cambiando, il giocatore vince, scegliendo l'automobile. Il giocatore sceglie la moto. Il conduttore sceglie la capra. Cambiando, il giocatore vince, scegliendo l'auto. Il conduttore sceglie l'automobile. Cambiando, il giocatore perde, scegliendo la capra. Il giocatore sceglie l'automobile. Il conduttore sceglie la moto. Cambiando, il giocatore perde, scegliendo la capra. Il conduttore sceglie la capra. Cambiando, il giocatore pareggia, scegliendo la moto. Come si pu vedere, la situazione iniziale, avendo tre possibilit differenti, impone tre risultati diversi. Perci questa volta il conduttore a eliminare una possibilit al giocatore, cosa che potrebbe portare uno svantaggio o un vantaggio a seconda del conduttore, quindi il giocatore dovrebbe soltanto decidere se fidarsi o no. La possibilit di pareggio va considerata a s stante e non come possibilit di perdita, altrimenti si rischia di confondere nuovamente le situazioni dei due concorrenti, senza capire la situazione reale.

Problema di Monty Hall

81

Varianti
Il conduttore non sa cosa ci sia dietro le porte
Dopo la scelta del concorrente, il conduttore apre una delle due porte rimaste. Poich non sa cosa c' dietro, con probabilit 1/3 trova l'auto e il gioco finisce. Con probabilit 2/3 trova invece la capra e pu chiedere al concorrente se vuole effettuare il cambio con la porta rimasta chiusa. In questo caso accettare lo scambio non fa aumentare al concorrente la sua probabilit di vincere che a questo punto di 1/2 qualunque sia la sua decisione.[4]

Due giocatori
Ad alcuni minuti dalla fine del gioco, il conduttore sceglie due concorrenti a cui proporre "la grande scommessa". Dietro a una delle tre porte c' il premio pi consistente. Ad ogni giocatore permesso scegliere una porta (non la stessa) . In questo scenario, si pu esaminare una variante del problema. Il presentatore elimina il giocatore che abbia scelto una porta con dietro la capra (se lo hanno fatto entrambi, ne viene scelto uno a caso), apre la porta, svelando la capra e poi offre al giocatore rimanente la possibilit di cambiare la propria scelta. Il giocatore dovrebbe effettuare lo scambio? La risposta no. La ragione: il giocatore che effettuasse lo scambio in questo tipo di gioco vincerebbe se e solo se entrambi i giocatori avessero scelto una porta con la capra. che probabilit ha questa evenienza? 1/3. Se mantenesse la scelta resterebbero 2/3 di probabilit. Quindi chi mantenesse la scelta fatta inizialmente avrebbe il doppio delle possibilit di vincere. In alternativa, ci sono tre possibili scenari, tutti con uguale probabilit (1/3): Il giocatore 1 sceglie la porta che nasconde l'auto. Il conduttore deve eliminare il giocatore 2. Cambiare scelta comporta perdere. Il giocatore 2 sceglie la porta che nasconde l'auto. Il conduttore deve eliminare il giocatore 1. Cambiare scelta comporta perdere. Nessuno dei giocatori sceglie la porta che nasconde l'auto. Il conduttore elimina a caso uno dei due giocatori. Cambiare scelta comporta vincere. Il giocatore 1 l'unico rimasto nel primo caso, e lo con probabilit 1/2 nel terzo caso; in questa eventualit cambiare scelta comporta una probabilit di perdere (1/3) due volte maggiore di quella di vincere (1/6). Analogamente, nel secondo caso il giocatore 2 l'unico rimasto, e lo con probabilit 1/2 nel terzo caso; in questa eventualit cambiare scelta comporta una probabilit di perdere (1/3) due volte maggiore di quella di vincere (1/6). Dunque a prescindere da quale giocatore rimanga, c' una probabilit pari a 2/3 di vincere se non si cambia scelta. Per rendere pi palese la differenza rispetto al caso precedente si pu dire che non si pu qui ragionare come prima dove il (unico) giocatore arriva sempre al secondo turno (quello del possibile scambio) e la probabilit che abbia selezionato la scelta vincente rimane 1/3, contro i complementari 2/3 della scelta alternativa. Si deve invece notare che nell'istante in cui un giocatore (uno dei due) arriva al secondo turno deve considerare che la probabilit che abbia inizialmente effettuato la scelta giusta si modifica e sale a 2/3. In sostanza il giocatore rimasto riveste in questo caso, in termini di probabilit, lo stesso ruolo che prima (caso con un giocatore) ricopriva la porta non selezionata dal giocatore n eliminata dal conduttore.

Problema di Monty Hall

82

n porte
Esiste una generalizzazione del problema originale in cui si hanno n porte: nel primo stadio del gioco, il giocatore sceglie una porta. Quindi il conduttore apre un'altra porta, che nasconde una capra. Se il giocatore vuole, pu quindi cambiare scelta e passare a un'altra porta. Il conduttore aprir allora un'ulteriore porta, ancora non aperta, che nasconde una capra, diversa da quella attualmente scelta dal giocatore. Il giocatore ha quindi la possibilit di cambiare ancora scelta, e cos via. Questo procedimento continua fino a che non restano che due porte non ancora aperte: la scelta corrente del giocatore, e un'altra porta. Quante volte dovrebbe cambiare scelta il giocatore, e a che punto del gioco (sempre che cambi almeno una volta)? La migliore strategia : restare con la prima scelta sino a che non rimangano solo due porte e a quel punto cambiare. Seguendo questa strategia la probabilit di vincere . Questa variante del paradosso di Monty Hall si deve a Bapeswara Rao e Rao.

Variante nel gioco del bridge


Una comune variante del problema nota ai giocatori di bridge da ben prima che l'articolo della Vos Savant fosse pubblicato. Tale variante nota come principio della scelta ristretta.[5]

Versione quantistica
Esiste una versione quantistica del paradosso, che illustra alcuni aspetti della relazione tra la teoria dell'informazione classica (non quantistica) e l'informazione quantistica, ossia l'informazione codificata negli stati di sistemi meccanici quantistici. Le tre porte sono rimpiazzate da un sistema quantistico che consta di tre alternative, in cui aprire una porta e vedere cosa nasconde si traduce in fare una particolare misurazione. Le regole del gioco possono essere espresse in questo linguaggio, e ancora una volta il giocatore pu scegliere se restare fedele alla propria scelta iniziale o cambiare e optare per una scelta alternativa ("ortogonale"). Quest'ultima strategia ha probabilit di vittoria doppie, esattamente come nel caso classico. Tuttavia, se la posizione del premio non pienamente casuale in senso quantistico, il giocatore pu fare ancora meglio, e in determinati casi vincere con probabilit pari a uno. disponibile in rete un articolo [6] al riguardo, nonch un'applet [7] che illustra gli effetti cos descritti.

Nella letteratura e nel cinema


Questo problema viene citato, con tanto di due dimostrazioni (intuitiva e matematica), nel libro di Mark Haddon Lo strano caso del cane ucciso a mezzanotte, dove il giovane protagonista propone il quesito ai lettori.[8] Un'altra citazione del problema si ha nel telefilm Numb3rs.[9] Nel film 21, il professore Mickey Rosa propone il problema al protagonista del film, l'allievo Ben Campbell, che lo risolve brillantemente. Anche la scrittrice Scarlett Thomas nel suo libro PopCo cita questo problema, definendolo Dilemma di Monty Hall[10] Nel libro "I conigli di Schrdinger" di Colin Bruce, viene illustrato il Problema di Monty Hall.[11]

Problema di Monty Hall

83

Note
[1] http:/ / www. letsmakeadeal. com/ problem. htm [2] (EN) Grinstead, Charles M. and Snell, J. Laurie, Grinstead and Snells Introduction to Probability (http:/ / www. math. dartmouth. edu/ ~prob/ prob/ prob. pdf) (PDF), 4 luglio 2006, pp. 136-139. URL consultato il 4 luglio 2012. [3] (EN) David Morin, Probability (http:/ / www. people. fas. harvard. edu/ ~djmorin/ probability. pdf), p. 49 [4] Rosenthal, Jeffrey S. (2005a). "Monty Hall, Monty Fall, Monty Crawl" (http:/ / probability. ca/ jeff/ writing/ montyfall. pdf). Math Horizons: September issue,57 (in inglese). URL consultato in data 12 luglio 2012. [5] Restricted Choice Article (http:/ / www. acbl-district13. org/ artic003. htm) [6] http:/ / xxx. lanl. gov/ abs/ quant-ph/ 0202120 [7] http:/ / www. imaph. tu-bs. de/ qi/ monty/ [8] p. 77, 78, 79 e 80. Mark Haddon, Lo strano caso del cane ucciso a mezzanotte, Einaudi (2003) [9] Numb3rs - Episodio 1.13, Caccia all'uomo [10] Scarlett Thomas, PopCo Newton Compton Editori (2007) [11] p.75,76,77.Colin Bruce, I conigli di Schrdinger, Raffaello Cortina Editore (2006)

Bibliografia
(EN) Bapeswara Rao, V. V. e Rao, M. Bhaskara (1992). A three-door game show and some of its variants. The Mathematical Scientist 17(2), 8994 (EN) Bohl, Alan H.; Liberatore, Matthew J.; e Nydick, Robert L. (1995). A Tale of Two Goats... and a Car, or The Importance of Assumptions in Problem Solutions. Journal of Recreational Mathematics 1995, 19. Joseph Bertrand (1889). Calcul des probabilits (EN) Gardner, Martin (1959). Rubrica "Mathematical Games", Scientific American, Ottobre 1959, 180182. (EN) Mueser, Peter R. e Granberg, Donald (1999). The Monty Hall Dilemma Revisited: Understanding the Interaction of Problem Definition and Decision Making (University of Missouri Working Paper 99-06). http:// econwpa.wustl.edu:80/eps/exp/papers/9906/9906001.html (retrieved July 5, 2005). (EN) Nahin, Paul J. (2000). Duelling idiots and other probability puzzlers. Princeton University Press, Princeton, NJ, 192-193. ISBN 0-691-00979-1 (EN) Selvin, Steve (1975a). A problem in probability (letter to the editor). American Statistician 29(1):67 (Febbraio 1975). (EN) Selvin, Steve (1975b). On the Monty Hall problem (letter to the editor). American Statistician 29(3):134 (Agosto 1975). (EN) Tierney, John (1991). Behind Monty Hall's Doors: Puzzle, Debate and Answer?, The New York Times 21 luglio 1991, Domenica, Section 1; Part 1; Page 1; Column 5 vos Savant, Marilyn (1990). Rubrica Ask Marilyn, Parade Magazine 12 (17 febbraio 1990). [citata in Bohl et al., 1995] (EN) Adams, Cecil (1990). On 'Let's Make a Deal,' you pick Door #1. Monty opens Door #2--no prize. Do you stay with Door #1 or switch to #3?, The Straight Dope 2 novembre 1990. http://www.straightdope.com/ classics/a3_189.html (consultata il 25 luglio 2005). (EN) Tijms, Henk (2004). Understanding Probability, Chance Rules in Everyday Life. Cambridge University Press, New York, 213-215. Haddon, Mark (2003). Lo strano caso del cane ucciso a mezzanotte Einaudi. Rosenthal, Jeffrey S. (2006). Le regole del caso, istruzioni per l'uso, Longanesi, Milano, ISBN 88-304-2370-X (EN) Rosenhouse, Jason (2009). The Monty Hall Problem, Oxford University Press ISBN 978-0-19-536789-8

Problema di Monty Hall

84

Voci correlate
Paradosso delle tre carte

Altri progetti
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Monty Hall problem

Collegamenti esterni
Simulazione fino a 100.000 tentativi (http://utenti.quipo.it/base5/probabil/montyhall.htm) Simulatore giocabile del paradosso (http://www.taravella.eu/content/view/14/27/)

Lotto
Il gioco del lotto (o semplicemente lotto) un gioco d'azzardo, e probabilmente il gioco a premi pi diffuso in Italia. Il gioco disciplinato dalla legge n. 528 del 2 agosto 1982 e dal Decreto del Presidente della Repubblica n. 560 del 16 settembre 1996. La sua gestione affidata all'Ispettorato Generale per il Lotto e Il logo del Lotto le Lotterie, Direzione Generale delle Entrate Speciali, che ha sede presso il Ministero delle Finanze. La gestione della raccolta delle giocate e dei pagamenti delle vincite affidata in concessione a Lottomatica.

Etimologia
La parola "lotto" deriva dal francese "lot", che significa sia "porzione" che "sorte". Il termine, giunto nella penisola iberica, documentato come "lote" in spagnolo e "loto" in portoghese. Il verbo francese "lotir", inoltre, significa "dividere la sorte" o "assegnare la sorte". Ma analogo lemma si ritrova nell'antico inglese "hlot" ("cosa toccata in sorte"), cui corrispondono "Los" nel tedesco moderno e "lot" nel danese. prevalente la teoria secondo cui il termine arriva in Francia dal mondo germanico, diffondendosi poi negli altri paesi dell'area romanza.

La ruota della fortuna (miniatura del XII secolo)

Lotto

85

Caratteristiche del gioco


Consiste in tre estrazioni settimanali (marted, gioved e sabato) che vengono effettuate a partire dalle ore 20:00 per undici ruote: Bari, Cagliari, Firenze, Genova, Milano, Napoli, Palermo, Roma, Torino, Venezia e Nazionale. Precedentemente al 16 giugno 2009 le estrazioni avvenivano contemporaneamente nelle dieci citt italiane, una per ogni ruota, tranne Roma in cui si estraeva l'omonima ruota e quella Nazionale. Da questa data le urne, tutte automatizzate dal 2009, sono state raggruppate in tre sedi estrazionali, allo scopo di ridurre i costi di gestione e di consentire un pi efficace controllo delle operazioni. Dal 16 giugno 2009, a Roma sono ospitate le urne di Cagliari, Firenze, Roma e Nazionale. Dal 23 giugno 2009, a Milano sono presenti le urne di Genova, Milano, Torino e Venezia. Dal 15 settembre 2009, a Napoli si svolgono le estrazioni di Bari, Napoli e Palermo. Ogni ruota dispone di un'urna dedicata e non intercambiabile con le altre: l'estrazione della ruota, ad esempio, di Bari avviene sempre con la stessa urna automatica e mai con altre (tranne in caso di guasto). Ci, secondo molti esperti di lotto, comunque garanzia di continuit statistica. Per ogni ruota vengono estratti 5 numeri tra l'1 e il 90 senza reimmissione, nel senso che un numero una volta estratto non viene reimmesso nell'urna. L'estrazione effettuata su tutte le ruote attraverso un'urna meccanica che mischia le palline con un getto di aria compressa e le cattura con una nicchia rotante ai bordi dell'urna. In passato si utilizzava un'urna fatta girare a mano con una manovella, dalla quale i bussolotti con i numeri venivano pescati da un bambino bendato.

Combinazioni vincenti
Il gioco consiste nello scommettere sui numeri estratti sulle varie ruote. Si pu scommettere di indovinare, su una ruota, su pi ruote o su tutte le ruote: l'ambata, o estratto semplice, ovvero un solo numero (l'ordine di estrazione non conta); l'estratto determinato, ovvero un numero e la posizione in cui viene estratto; l'ambo, ovvero due numeri; il terno, ovvero tre numeri; la quaterna, ovvero quattro numeri; la cinquina, ovvero cinque numeri.

Si possono giocare fino a 10 numeri sulla stessa scheda. La vincita pagata a quota fissa e dipende da quanti numeri si sono indovinati, da cosa si giocato e da quanti numeri sono stati messi in gioco.

Vincite e probabilit
La probabilit che esca un singolo numero su una determinata ruota di 1 su 18 (5/90). La vincita pagata da Lottomatica, unica concessionaria ufficiale del gioco del Lotto, ammonta a 11,232 volte la posta, da cui deve essere detratta la trattenuta diretta del 6%. Nella seguente tabella viene indicata la vincita lorda che si ottiene giocando 1 euro su 1 ruota e indovinando tutti i numeri in gioco.

Lotto

86

Numeri giocati Numeri indovinati Vincita lorda (euro) Probabilit di vincita 1 2 3 4 5 1 2 3 4 5 11,23 250,00 4500,00 120000,00 6000000,00 1 su 18 1 su 400,5 1 su 11748 1 su 511038 1 su 43949268

La tabella mostra anche che da un punto di vista matematico il gioco del lotto un gioco definibile "non equo", laddove per gioco equo si intende un gioco che paga al vincitore una vincita pari alla posta giocata moltiplicata per l'inverso della probabilit di vincita; in questo caso 18 per una ambata, mentre invece si pu notare che la "iniquit" del gioco cresce al crescere della "difficolt" del gioco in quanto il rapporto vincita equa/vincita reale varia come segue: 1,6, 1,6, 2,61, 4,26, 7,32, e se si considera la trattenuta del 6% sulla vincita tali valori sono ancora pi alti. In generale, giocando su N ruote (1 N 10) la vincita lorda risultante quella indicata in tabella divisa per N. Giocando M numeri (1 M 10) la vincita risultante quella indicata in tabella divisa per il numero delle combinazioni che si ottengono combinando tra loro X elementi (dove X vale 1, 2, 3, 4, 5 a seconda che si giochi per ambata, ambo, terno, quaterna, cinquina) su M posizioni; in formula:

dove

il coefficiente binomiale.

Nel caso pi generale, giocando M numeri su N ruote la vincita risultante

Con una sola schedina la vincita massima lorda consentita 6 milioni di euro.

Vincite record
Sette sono state le vincite che finora in Italia hanno superato il milione di euro al gioco del Lotto: 1. 2. 3. 4. 5. 6. 7. Cinquina da 3 069 500 realizzata a Barcellona Pozzo di Gotto (Messina) nel gennaio 2007 Cinquina da 3 064 750 realizzata a Roma nel settembre 2007 Cinquina da 3 062 375 realizzata a Siano (Salerno) il 10 luglio 2008 Cinquina da 3 062 250 realizzata a Surbo (Lecce) nell'aprile 2005 Cinquina da 3 031 250 realizzata a Vernole (Lecce) il 14 febbraio 2008 Quaterna da 2 400 000 realizzata a Morgano (Treviso) il 10 giugno 2008 Quaterna da 2 000 000 realizzata a Roma il 5 settembre 2009 (il fortunato giocatore ha centrato una quaterna sulla ruota di Roma dove aveva puntato 10 euro, il resto della vincita stato realizzato dai terni, su quali ha puntato 190 euro).

Lotto

87

Cenni storici
Sulla genesi del lotto in Italia non ci sono elementi certi e molti sono i "progenitori" di questo gioco. Nel 1448 si ha notizia a Milano delle cosiddette "borse di ventura" che in sostanza possono ritenersi un primo abbozzo delle scommesse caratterizzanti il vero lotto. Di certo l'abitudine a scommettere si diffuse largamente in ogni angolo del Paese ed ogni avvenimento pubblico diede vita a grande attivit di gioco, tanto che a Genova nel 1588 uno Statuto lo proibiva totalmente decretando che non si poteva far gioco sulla vita del Pontefice, dell'imperatore, dei re, dei cardinali, sulla riuscita degli eserciti, sull'esito delle guerre, sui matrimoni, sulle elezioni dei magistrati o dei dogi e addirittura sulla peste. Le prime notizie certe intorno al gioco del Lotto vengono fatte risalire al 1620: da quell'anno in poi, proprio a Genova, il lotto trova una precisa regolamentazione; del resto, nella citt ligure un gioco simile al moderno lotto e basato sui numeri era gi nato proprio in relazione alle scommesse che si facevano sull'elezione dei senatori della citt. Negli altri Stati italiani e nello Stato Pontificio, invece, il gioco del lotto era osteggiato per motivazioni di ordine morale. Nel 1728 il Papa Benedetto XIII arriv addirittura a minacciare la scomunica per chiunque vi avesse partecipato, ma tre anni dopo il gioco fu riammesso dal suo successore Clemente XII e nel 1785 Pio VI ne decise la destinazione a favore delle opere pie. A Venezia il gioco del lotto compare per la prima volta - a quanto si sa - nel 1734 e si svolge sotto l'egida del Governo della Repubblica. Nel resto d'Italia, la liceit del gioco del lotto viene ammessa gradualmente e trova via via una regolamentazione ufficiale: considerati i notevoli introiti derivanti dalle giocate, le Autorit pubbliche pongono il gioco sotto il proprio monopolio. Nel 1863 ormai il gioco del lotto diffuso in tutta l'Italia e da quell'anno viene giocato su 6 differenti ruote (Firenze, Milano, Napoli, Palermo, Torino e Venezia) che arriveranno a 7 nel 1871, dopo l'annessione di Roma all'Italia e a 8 nel 1874 con l'introduzione della ruota di Bari. La struttura a 10 ruote viene inaugurata l'8 luglio 1939 con l'introduzione delle ruote di Cagliari e Genova mentre l'introduzione della ruota Nazionale (11 ruota) risale al 4 maggio 2005. Le estrazioni, un tempo limitate a due o tre allanno, si fanno pi frequenti diventando quindicinali nel 1807, settimanali nel 1871, bisettimanali nel 1997 e trisettimanali nel 2005.[1]

Teoria dei numeri ritardatari


Come detto, in presenza di un'estrazione non truccata, su una data ruota ogni numero ha sempre la stessa probabilit di uscire, pari a 5 su 90 (ovvero 1/18), essendo 5 i numeri estratti e 90 i numeri contenuti nell'urna. Sulla base di tale premessa si pu concludere che giocare sui ritardatari privo di senso: il fatto che un numero non sia uscito per molte estrazioni precedenti non aumenta in nessun modo la probabilit che venga estratto alla successiva estrazione, rimanendo essa sempre pari a 1/18. Nonostante la persistente popolarit della "teoria dei ritardatari", nessuno in grado di prevedere numeri estratti con maggiore probabilit di successo di un giocatore completamente "casuale". Gli appassionati al gioco sui numeri "ritardatari" si basano sui precedenti della storia del lotto. La probabilit che un dato numero esca almeno una volta nell'arco di 18 estrazioni all'incirca del 64%. La serie storica dice che un ritardo medio-massimo per un estratto arriva alle 90 estrazioni, raramente oltre le 140 estrazioni, dieci volte soltanto ha superato le 180 e di queste solo due volte ha superato le 200 nei 135 anni di storia del lotto moderno (dal 1871 ad oggi un numero uscito con un ritardo di 201 estrazioni il 23 agosto 1941 e un altro con un ritardo di 203 il 1 aprile 2006). Queste osservazioni e questi fatti non contraddicono le conclusioni precedenti. Il fatto che l'evento "ritardo per 200 estrazioni del numero x" sia molto improbabile non implica che, una volta avvenuti 199 ritardi di x, esso abbia probabilit maggiore di 1/18 di uscire nell'estrazione successiva. L'evento "il numero scelto non viene estratto in una successione fissata di 200 estrazioni", per quanto improbabile, ha probabilit 17 volte maggiore dell'evento "il numero scelto non esce per 199 volte e viene estratto alla duecentesima". necessario inoltre mettere in evidenza che, indipendentemente da quale strategia venga adottata, la probabilit di andare in perdita aumenta

Lotto esponenzialmente in funzione delle giocate effettuate: la stragrande maggioranza dei giocatori destinata ad andare in perdita ed su questo presupposto che si basano tutti coloro che propongono dei giochi d'azzardo (qualsiasi societ pubblica o privata che lo organizzi). In altri termini, per ogni singolo turno d'estrazione, il monte complessivo delle puntate di norma superiore alle vincite pagate: come si dice, "il banco vince sempre". Dal canto loro i sostenitori della "teoria dei ritardatari" fanno rilevare che solo all'uscita di numeri cosiddetti centenari il banco "salta", cio l'importo delle vincite maggiore dell'importo giuocato. Pertanto potremmo dire che "il banco vince sempre o quasi (a patto che non escano combinazioni molto giocate)". Infatti l'affermazione che il banco vince sempre, nello specifico del Lotto, dovuta alla sua iniquit nel pagare le vincite in rapporto alla probabilit e non certo dall'erronea (o supposta tale) metodologia di gioco adottata dai giocatori-sistemisti.

88

Trucchi e brogli
Certamente, l'unica possibilit per vincere a colpo sicuro consiste nel truccare le estrazioni. Voci e sospetti su trucchi o brogli in tutti i giochi d'azzardo e in particolare nel lotto non sono mai mancati, a torto o a ragione. Una truffa venne ideata alla fine degli anni ottanta, quando esisteva ancora il vecchio sistema delle palline: il bambino incaricato dell'estrazione veniva addestrato a riconoscere alcune palline che erano state lucidate di pi rispetto alle altre. Il piano venne scoperto alla fine degli anni novanta.[2] Si sospetta che estrazioni 'pilotate' siano avvenute in Lombardia, dove si sono registrate con insospettata frequenza plurivincite di ambi ed estratti semplici, soprattutto nella zona di Milano. Oggi la sicurezza delle operazioni di estrazione garantita da sistemi di controllo e notifica dell'Amministrazione Autonoma dei Monopoli di Stato.

I numeri pi ritardatari
La classifica dei dieci numeri pi ritardatari nella storia del Lotto dal 1871 ad oggi.
Numero 34 8 55 82 67 71 47 28 53 11 Ruota Cagliari Roma Bari Bari Venezia Cagliari Bari Bari Venezia Torino Estrazioni attese Data di uscita 203 201 196 193 191 191 189 187 182 181 1-4-2006 23-8-1941 12-3-1960 27-11-1943 18-10-1924 26-6-1971 13-11-1917 26-7-1902 9-2-2005 22-3-1931

Da questo elenco si nota come nella storia del Lotto, dal 1871 ad oggi, nessun numero abbia mai superato la soglia delle 203 estrazioni di ritardo, primato che appartiene al numero 34 sulla ruota di Cagliari, il quale ad aprile 2006 ha battuto il longevo record che apparteneva dal 1941 al numero 8 sulla ruota di Roma. La probabilit che un numero prefissato abbia un ritardo di 203 estrazioni su una ruota prestabilita circa di 1 su 109443 per una serie di esattamente 203 estrazioni (evento comunque circa 402 volte pi probabile rispetto a indovinare una cinquina su una singola estrazione) e scende a circa 1 su 410 per una serie di 5000 estrazioni. Finora il ritardo medio-massimo per un estratto arrivato alle 90 estrazioni, raramente oltre le 140 estrazioni e quasi mai oltre le 200.

Lotto Negli anni pi recenti ci sono stati ben due "casi", come la classifica sopra riportata evidenzia: il 53 sulla ruota di Venezia, uscito nel febbraio 2005 dopo 182 turni, e addirittura il record assoluto del gi menzionato 34 sulla ruota di Cagliari: ogni volta che si registrano ritardi cos significativi, invariabilmente, il lotto diventa un vero fenomeno di costume, capace di catalizzare mass media ed opinione pubblica, aumenti delle giocate (le cui tasse vanno ad arricchire le entrate fiscali), e spesso anche episodi da cronaca nera (suicidi, usura, truffe, fughe, ecc.). Secondo la statistica relativa agli ambi ritardatari, il capolista assoluto fra questi l'ambo 17-56 sulla ruota di Bari, unico mai estratto dall'introduzione del lotto a 10 ruote e comunque mancante dal 28 luglio 1923, con un ritardo che a fine luglio 2012 supera le 5.820 estrazioni. In ordine cronologico, il secondo ambo pi ritardato 9-22 sulla ruota di Milano (oltre 3.900 estrazioni)[3].

89

Curiosit
Il matematico e statistico Bruno de Finetti, a proposito del lotto e dei giochi basati sulla sorte, parl di "tassa sugli imbecilli".

10eLotto
un nuovo gioco legato al Lotto, nato il 28 luglio 2009; su una schedina si scelgono 10 numeri dall'1 al 90 e, inoltre, si pu scegliere tra estrazione immediata e estrazione del Lotto. Nell'estrazione immediata, dopo la convalida della giocata il terminale estrarr casualmente 20 numeri. Nell'estrazione del Lotto, invece, la combinazione vincente viene determinata dai primi due numeri delle ruote del Lotto, esclusa la ruota Nazionale; in caso di numeri ripetuti si partir dalla terza colonna iniziando dalla ruota di Bari e proseguendo in ordine alfabetico. In questo gioco si possono giocare da 1,00 a 200. Dal 15 dicembre 2009 si pu anche giocare con la modalit estrazione ogni 5 minuti dove dalle 5:00 alle 24:00 di ogni giorno, ogni 5 minuti vengono estratti 20 numeri. L'estrazione verificabile sul monitor all'interno delle ricevitorie abilitate che ad oggi sono circa 10.000 su tutto il territorio nazionale. Inoltre dal 23 settembre 2010 si possono giocare non soltanto tutti e dieci i numeri ma anche da 1 a 10 ed il primo premio passa da 500.000 ad 1.000.000 .

Il logo del 10eLotto

Montepremi per numeri giocati

Lotto

90

Premi 10eLotto con giocata da 1 per un numero giocato


Numeri indovinati Vincita netta (euro) 3

Premi 10eLotto con giocata da 1 per 2 numeri giocati


Numeri indovinati Vincita netta (euro) 7 1

2 1

Premi 10eLotto con giocata da 1 per 3 numeri giocati


Numeri indovinati Vincita netta (euro) 50 2

3 2

Premi 10eLotto con giocata da 1 per 4 numeri giocati


Numeri indovinati Vincita netta (euro) 100 10 1

4 3 2

Premi 10eLotto con giocata da 1 per 5 numeri giocati


Numeri indovinati Vincita netta (euro) 200 15 4 1

5 4 3 2

Lotto

91

Premi 10eLotto con giocata da 1 per 6 numeri giocati


Numeri indovinati Vincita netta (euro) 2.000 100 10 2

6 5 4 3

Premi 10eLotto con giocata da 1 per 7 numeri giocati


Numeri indovinati Vincita netta (euro) 4.000 400 40 4 1

7 6 5 4 0

Premi 10eLotto con giocata da 1 per 8 numeri giocati


Numeri indovinati Vincita netta (euro) 20.000 1.000 200 20 1

8 7 6 5 0

Premi 10eLotto con giocata da 1 per 9 numeri giocati


Numeri indovinati Vincita netta (euro) 100.000 4.000 400 40 10 1

9 8 7 6 5 0

Lotto

92

Premi 10eLotto con giocata da 1 per 10 numeri giocati


Numeri indovinati Vincita netta (euro) 2 5 15 150 1.500 30.000 1.000.000

0 5 6 7 8 9 10

Probabilit di vincita per numeri giocati Probabilit di vincita al 10eLotto per un numero giocato
Numeri Probabilit indovinati 1 1 su 4,5

Probabilit di vincita al 10eLotto per 2 numeri giocati


Numeri Probabilit indovinati 2 1 1 su 21,1 1 su 2,9

Probabilit di vincita al 10eLotto per 3 numeri giocati


Numeri Probabilit indovinati 3 2 1 su 103,1 1 su 8,8

Lotto

93

Probabilit di vincita al 10eLotto per 4 numeri giocati


Numeri Probabilit indovinati 4 3 2 1 su 527,4 1 su 32 1 su 5,6

Probabilit di vincita al 10eLotto per 5 numeri giocati


Numeri Probabilit indovinati 5 4 3 2 1 su 2.835 1 su 129,6 1 su 16 1 su 4,2

Probabilit di vincita al 10eLotto per 6 numeri giocati


Numeri Probabilit indovinati 6 1 su 16.063 5 4 3 1 su 573,7 1 su 53,2 1 su 10

Probabilit di vincita al 10eLotto per 7 numeri giocati


Numeri Probabilit indovinati 7 1 su 96.380

6 1 su 2.753,7 5 4 0 1 su 199,5 1 su 28,2 1 su 6,2

Lotto

94

Probabilit di vincita al 10eLotto per 8 numeri giocati


Numeri indovinati Probabilit

8 1 su 615.349 7 6 5 0 1 su 14.285 1 su 828,1 1 su 91,3 1 su 8,2

Probabilit di vincita al 10eLotto per 9 numeri giocati


Numeri indovinati Probabilit

9 1 su 4.204.885 8 7 6 5 0 1 su 80.093,1 1 su 3.772,5 1 su 332,9 1 su 49,7 1 su 10,9

Probabilit di vincita al 10eLotto per 10 numeri giocati


Numeri indovinati 0 5 6 7 8 9 Probabilit

1 su 14,4 1 su 30,5 1 su 161 1 su 1.348,1 1 su 18.804,5 1 su 486.565

10 1 su 30.963.246

Lotto Pi
Lotto Pi, una nuova modalit di gioco del lotto lanciata ufficialmente il 23 maggio 2012. Il giocatore del Lotto Pi su un'apposita schedina dalla grafica semplice, disponibile in tagli predefiniti negli importi (3, 4 e 5 ) e nelle sorti che si possono giocare (dallambo fino alla cinquina a seconda dellimporto giocato), deve scegliere i propri numeri e la ruota su cui puntare. Le tre tipologie di giocata offrono moltiplicatori di vincita pi elevati rispetto alle stesse giocate effettuate al Lotto fino ad oggi. Nello specifico, con la schedina da 3 il giocatore sceglie solo 3 numeri puntando su ambo e terno ove il primo rende 270 volte la posta (anzich 250), mentre il secondo 5.000 volte la posta (anzich 4.500). In tal caso la vincita superiore di circa 800 euro rispetto a quella realizzabile con una giocata tradizionale.

Lotto Con la schedina da 4 , il giocatore sceglie solo quattro numeri giocando su ambo, terno e quaterna, nella quale, lambo rende 300 volte la posta (anzich 250), il terno 6.000 volte la posta (anzich 4.500) e la quaterna 210.000 volte la posta (anzich 120.000). I moltiplicatori in questo caso aumentano fino al 75% e la vincita massima superiore di 119.000 rispetto al Lotto tradizionale. Infine, con la schedina da 5 si possono giocare solo cinque numeri puntando anche sulla cinquina ove lambo rende 330 volte la posta (anzich 250), il terno 7.000 volte la posta (anzich 4.500), la quaterna 230.000 volte la posta (anzich 120.000) e la cinquina 8 milioni di volte la posta (anzich 6 milioni). In questo caso i moltiplicatori di vincita aumentano fino al 90% in pi. Per usufruire dei moltiplicatori speciali Lotto Pi necessario giocare solo con le schedine dedicate o richiedere espressamente al ricevitore una giocata Lotto Pi.

95

Voci correlate
Gioco d'azzardo Lotteria Lottomatica Superenalotto

Lottologia Probabilit Statistica

Note
[1] Vedi Storia del Lotto Le ultime novit (http:/ / www. lottomaticaitalia. it/ lotto/ gioco/ novita. html) e Glossario Estrazioni infrasettimanali (http:/ / www. lottomaticaitalia. it/ lotto/ gioco/ glossario. html#lettera_e) in www.lottomaticaitalia.it [2] Vedi http:/ / www. repubblica. it/ online/ fatti/ lotto/ lotto/ lotto. html La Repubblica 14 gennaio 1999 [3] Statistiche ambi ritardatari (http:/ / www. lottomaticaitalia. it/ lotto/ statistiche/ statisticheAmbiRitardatari. html) Lottomaticaitalia.it

Altri progetti
Wikinotizie contiene notizie di attualit: http://it.wikinews.org/wiki/Lotto

Collegamenti esterni
Lotto (http://search.dmoz.org/cgi-bin/search?search=Lotto&all=yes&cs=UTF-8&cat=World/Italiano) su Open Directory Project ( Segnala (http://www.dmoz.org/public/suggest?cat=) su DMoz un collegamento pertinente
all'argomento "Lotto")

Sito ufficiale (http://www.giocodellotto.com/lotto/home/index.html)

Roulette

96

Roulette
La roulette un gioco d'azzardo di origine italiana (la girella) introdotto in Francia nel XVIII secolo. Consiste in un disco, diviso in 37 (o 38, nella roulette americana) settori numerati da 0 a 36 e colorati alternativamente in rosso e nero, mentre lo zero (0), come il doppio zero (00) quando presente, normalmente colorato di verde o in bianco (in pochissimi casi); il disco viene fatto ruotare nella sua sede dal gestore del banco (il croupier) che successivamente vi lancia una pallina, originariamente in avorio, oggi in resina o teflon: la pallina viene fatta ruotare in senso opposto a quello della roulette, e si ferma cadendo in uno dei settori numerati, determinando il numero vincente.

La roulette

Linguaggio
La lingua comunemente usata dai croupiers durante il gioco della roulette il francese, nel quale vengono pronunciate le frasi che regolano ogni fase del gioco: Faites vos jeux (apertura del tavolo, dopo il pagamento delle vincite precedenti) Les jeux sont faits (al lancio della pallina) Rien ne va plus (fine delle puntate, quando l'uscita del numero imminente') l'annuncio del numero uscito, come nel seguente esempio: "27, rouge, impair et passe", seguito dall'indicazione delle puntate vincenti dei giocatori (plein, cheval, ecc.) o da "rien au numro" se non vi sono vincite.

Tipologie di roulette
Vi possono essere tre tipi di tavolo: roulette francese, il tavolo classico, con i numeri da 0 a 36. la tipologia pi diffusa; si differenzia dalle altre due tipologie perch, nel caso dell'uscita dello 0, le puntate sulle chance semplici vengono imprigionate per la mano in corso se poi esce un numero corrispondente alla chance puntata in precedenza, la puntata viene rimessa in libert e si comporter come una nuova puntata che pu quindi vincere o perdere (regola dell'en prison). C' inoltre una deroga convenzionalmente utilizzata in quasi tutti i casin europei: quando esce lo 0 le puntate sulle chance semplici si possono dividere con il banco. Ad esempio ho puntato 20 pezzi su rosso ed esce zero ritiro dal tavolo 10 pezzi ed il banco incamera la differenza. roulette inglese, come la roulette francese, ma senza la regola dell'en prison. Il tappeto di gioco diverso per due motivi:

Tavolo della roulette francese

nel tavolo francese ci sono tre croupier a far svolgere il gioco mentre in quello inglese e americano uno; ci sono gli annunci (vicini dello zero, serie 5/8 e gli orfanelli) e sul tappeto rappresentato il cilindro con i tre settori degli annunci;

Roulette roulette americana, si differenzia dalle precedenti due per la presenza di una trentottesima casella: il doppio zero (00), anch'essa verde; come nella roulette inglese, non esiste la regola dell'en prison e ci sono quattro tipi di annunci e tutti giocano in pieno: GOLD (5,7,11,17,20,22,26,30,32,34) SILVER (6,8,9,12,18,19,21,28,29,31) SMALL (0,2,4,14,16,23,33,35) (00,1,3,10,13,15,24,25,27,36) AMERICANA

97

Puntate e sistemi di gioco


Le combinazioni su cui possibile puntare sono svariate, ognuna delle quali quotata 36/n-1:1, essendo n la quantit di numeri compresi nella combinazione scelta: Plein, singoli numeri in cui, in caso di vittoria, si vince 35 volte la somma puntata Cheval, cavalli, o coppie di numeri in cui, in caso di vittoria, si vince 17 volte la somma puntata Transversale Pleine, terzine in cui, in caso di vittoria, si vince 11 volte la somma puntata Carr, quartine in cui, in caso di vittoria, si vince 8 volte la somma puntata Transversale Simple, sestine in cui, in caso di vittoria, si vince 5 volte la somma puntata

Douzaine, dozzine (prima, seconda o terza) in cui, in caso di vittoria, si vince 2 volte la somma puntata Colonne, colonne (prima, seconda o terza colonna del tavolo) in cui, in caso di vittoria, si vince 2 volte la somma puntata

Puntate Semplici
Ci sono poi 3 ulteriori tipologie di puntata, chiamate Chanches Simples, che in caso di vittoria, restituiscono 1 volta la somma puntata e sono: Pair ou Impair, o anche Even or Odd, ovvero numeri pari o dispari Manque ou Passe, ovvero i numeri da 1 a 18 o quelli da 19 a 36 Rouge ou Noir, ovvero i numeri rossi o neri Esistono poi sistemi di gioco codificati a livello internazionale, i pi comuni sono: i vicini dello zero, la serie 5/8 e gli orfanelli. Zero e i vicini dello zero ("zro et les voisins du zro") sono una serie di 17 numeri ubicati sul cilindro alla destra e alla sinistra dello zero tra il 22 e il 25 compresi, e si possono giocare con un totale di 9 fiches. I numeri in questione sono 0-2-3, 4-7, 12-15, 18-21, 19-22, 25-26-28-29, 32-35 con due fiches sullo 0-2-3 e sul carr 25-29. La serie 5/8 ("tiers du cylindre" o pi semplicemente "tiers") composta da 12 numeri giocabili con 6 fiches su 6 cavalli, i numeri sono 5-8, 10-11, 13-16, 23-24, 27-30, 33-36, e sono ubicati, sul cilindro, in maniera diametralmente opposta ai "vicini dello zero". Gli orfanelli (o "orphelins"), cos chiamati proprio perch non facenti parte di nessuna delle due serie sopra esposte, sono gli 8 numeri rimanenti, ossia 1, 6-9, 14-17, 17-20, 31-34 (l'1 pieno, gli altri a cavallo), si possono giocare con 5 fiches e sono ubicati, in parte sul lato sinistro ed in parte sul lato destro del cilindro, che per consuetudine viene rappresentato con lo "0" in alto. In Scozia si usa giocare la "tier press", che altro non che la tier normale (5-8-10-11-13-16-23-24-27-30-33-36) con l'aggiunta dei pieni dei primi quattro numeri (ossia 5-8-10-11) per un totale di 10 fiches. Altra celebre e diffusa puntata quella denominata "nassa". Come gli orfanelli, si effettua puntando 5 fiches, che vanno a coprire 8 numeri vicini dello zero: il 26 e il 19 pieni e i cavalli 0-3, 12-15, 32-35. considerata la giocata ridotta rispetto al sistema "vicini dello zero" e offre il 21.6% di probabilit di vincita.

Sistemi di gioco

Roulette

98

Statistica
La roulette, come tutti i giochi d'azzardo nei quali presente un banco, garantisce al banco stesso una percentuale matematica di vantaggio sul giocatore, che in questo caso risulta essere del 2,70% circa, una percentuale tutto sommato esigua rispetto a giochi tipo il Lotto od il Totocalcio dove la stessa addirittura del 60% circa. Non ci sono sistemi di gioco che garantiscano una vincita sicura. Nel 1985 Olivier Doria ipotizz un sistema basato sull'incrocio di parabole dirette in senso opposto. E cio piazzando una telecamera che calcolasse, al momento del lancio, la velocit della pallina alla partenza e, simultaneamente la velocit della ruota in senso opposto, si sarebbe potuto calcolare il settore della roulette nel quale la pallina avrebbe avuto pi probabilit di atterrare. Se si gioca un numero singolo, le probabilit di vincita calcolate sono del 2,702703% per i tavoli francese e inglese, e del 2,63158% per il tavolo americano; in caso di vincita il banco paga 35 volte la posta giocata.

Voci correlate
Casa da gioco Gioco d'azzardo Baratteria (gioco)

Altri progetti
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Roulette

Blackjack
Blackjack

Una partita a Blackjack Luogo origine Francese Regole N giocatori Squadre Giro Azzardo Mazzo Gerarchia semi Gerarchia carte 7 + Banco No Senso orario S 2 mazzi di 52 carte No No

Il Black Jack (in italiano chiamato anche Ventuno) un gioco d'azzardo di carte che si svolge tra il banco, rappresentato dal casin, e i giocatori. Vincono i giocatori che realizzano un punteggio pi alto del banco non

Blackjack superiore a 21.

99

Storia
Il gioco nato in Francia nel XVII secolo, con il nome di Vingt-et-un (ossia "ventuno"). Una volta approdato negli Stati Uniti il gioco del ventuno venne denominato Black Jack (fante nero) con l'introduzione di una variante: qualora il giocatore facesse 21 con un asso e un jack di picche, veniva pagato con un bonus di dieci volte la posta. Anche se attualmente il bonus stato abolito, il nome comunque rimasto.

Le carte
Di norma il Black Jack viene usato con un sabot formato da 2 mazzi di carte francesi, per un totale di 104 carte. Nel gioco l'asso pu valere 11, o 1, le figure valgono 10, mentre le altre carte valgono il loro valore nominale. I semi non hanno alcuna influenza, o valore. La somma dei punti, al fine del calcolo del punteggio, avviene per semplice calcolo aritmetico.

Svolgimento del gioco


Una volta che i giocatori hanno fatto la loro puntata, il banchiere procedendo da sinistra verso destra assegna a ciascuno dei giocatori una carta coperta in ogni postazione giocata, assegnando l'ultima al banco. Effettua poi un secondo giro di carte scoperte, senza per attribuirne una a se stesso. Avvenuta la distribuzione, il dealer legge in ordine il punteggio di ciascun giocatore invitandoli a manifestare il loro gioco: essi potranno chiedere carta o stare, a loro discrezione. Se un giocatore supera il 21 risulta perdente e il dealer incasser la puntata. Una volta che i giocatori hanno definito i loro punteggi il dealer sviluppa il suo gioco seguendo la "regola del banco": egli deve tirare carta con un punteggio inferiore o uguale a 16. Una volta superato il 16 si deve fermare. Se oltrepassa il 21 il banco "sballa" e deve pagare tutte le puntate rimaste sul tavolo. Una volta definiti tutti i punteggi, il dealer confronta il proprio con quello degli altri giocatori, paga le combinazioni superiori alla sua, ritira quelle inferiori e lascia quelle in parit. Il pagamento delle puntate vincenti alla pari. Il Black Jack puro Il Black Jack puro si ottiene quando il giocatore fa 21 con le prime due carte assegnateli dal dealer, e si pu fare solo con un Asso di picche (11) e un Jack di picche; questo punteggio batte il banco anche se totalizza 21. Il Black Jack Il giocatore che fa 21 con le prime due carte assegnategli dal dealer, cio riceve un Asso (11) e un dieci o una figura, forma il black jack e ha diritto al pagamento di 3 a 2 (una volta e mezzo la posta, cio, la somma scommessa x 1,5); se il dealer realizza anche lui il black jack la mano considerata alla pari. Il raddoppio della puntata (double down) I giocatori hanno una particolare opzione di giocata: se con le prime due carte hanno realizzato da 9 a 15 punti, possono raddoppiare la puntata al momento della chiamata ma impegnandosi a chiedere una sola carta, e dopo aver ricevuto questa carta il giocatore obbligato a fermarsi. La divisione (split) Se nella prima distribuzione il giocatore riceve due carte dello stesso valore pu effettuare lo split e cio: separare le due carte e aggiungere un'uguale puntata sulla seconda; proseguire il gioco come se il giocatore avesse due prime carte; aggiungere una carta su ciascuna carta separata.

Blackjack Nel caso di due Assi il gioco doppio consentito ma con diritto a una sola chiamata. Strategia per lo split Gli "split" nella dimensione di gioco britannica non pongono limiti al numero delle divisioni delle carte uguali sebbene venga proibito al giocatore di "splittare" i quattro, i cinque e le figure, che l'istituto di regolamentazione del gioco in Gran Bretagna ha valutato statisticamente come scommesse svantaggiose nei confronti del giocatore. Un buon giocatore di black jack potr all'occorrenza "splittare" i quattro e i cinque ma mai dovrebbe azzardare lo split di due figure. L'assicurazione (insurance) Quando il banchiere si serve un Asso come carta scoperta, vi la possibilit che faccia Black Jack con la seconda carta, quindi i giocatori possono ricorrere all'Assicurazione. La posta dell'Assicurazione equivale alla met della puntata di base (quella sulla casella, per esempio: se il giocatore ha puntato 100 l'Assicurazione vale 50). Nel caso il banco realizzi Black Jack il giocatore perder tutta la puntata iniziale, ma verr risarcito con il doppio del valore dell'assicurazione (2:1): in pratica come se la mano si concludesse con un "pari". Nel caso il banco non realizzi un Black Jack l'assicurazione viene comunque persa indipendentemente dal risultato della mano.

100

Le diverse versioni
In Europa le carte sono scoperte: due per ciascun giocatore, una per il banco. Negli USA inoltre, il banco, oltre alla sua carta scoperta, prende subito l'altra, che rimane per coperta. In vari casin si possono "splittare" (separare) le carte uguali fino a tre volte, eccetto gli assi che possono essere separati solo una volta. Dopo lo split si pu spesso (ma non dappertutto) raddoppiare la puntata. In genere non si possono raddoppiare le mani soft (un asso con una carta che non sia figura). Esistono tuttavia dei casin che permettono di raddoppiare con qualsiasi combinazione iniziale. Tra le varianti di Blackjack troviamo: Classico, Europeo, Spagnolo 21, Vegas Strip, Atlantic City, Blackjack Switch, Multi-mano.

Strategia
La strategia del gioco varia a seconda delle regole locali e del numero dei mazzi usati. Al di l della scelta se partecipare o meno al gioco, e alla posta puntata nella singola mano e alla possibilit di raddoppiare la posta, l'unica scelta lasciata al giocatore quella di stabilire se chiedere un'altra carta (e, se le prime due carte sono uguali, di effettuare uno split, cio di dividere la propria mano in due).

Basic Strategy
Per effettuare i calcoli delle probabilit nelle varie situazioni sono stati utilizzati anche alcuni dei primi computer a disposizione delle universit. In particolare al MIT sono stati realizzati parecchi studi in questo campo. In base a questi calcoli risulta ora possibile, basandosi soltanto sulle carte che si hanno in mano sapere quali sono le probabilit che esca ogni tipo di carta. Basandosi su tali probabilit, stata calcolata una regola (Basic Strategy) che stabilisce quale sia la decisione migliore da effettuare nelle varie circostanze.

Blackjack

101

Mano del giocatore 2 3

Carta scoperta del Banco 4 5 6 7 8 9 10 A

Totali hard 17-20 16 15 13-14 12 11 10 9 5-8 S S S S H S S S S H S S S S S S S S S S S S S S S S H H H H S H H H H S S S

SU SU SU H H H SU H H H H H H H H H

Dh Dh Dh Dh Dh Dh Dh Dh Dh Dh Dh Dh Dh Dh Dh Dh Dh H H Dh Dh Dh Dh H H H H H H H H H H H H H

Totali soft 2 A,8 A,9 A,7 A,6 A,4 A,5 A,2 A,3 S S H H H 3 S 4 S 5 S 6 S 7 S S H H H 8 S S H H H 9 S H H H H 10 S H H H H A S H H H H

Ds Ds Ds Ds Dh Dh Dh Dh H H Dh Dh Dh H Dh Dh

Coppie 2 A,A 10,10 9,9 8,8 7,7 6,6 5,5 4,4 2,2 3,3 3 4 5 6 7 8 9 10 A

SP SP SP SP SP SP SP SP SP SP S S S S S S S S S S S S S

SP SP SP SP SP

SP SP

SP SP SP SP SP SP SP SP SP SP SP SP SP SP SP SP SP SP SP SP SP H H H H H H H H H H H H H H H

Dh Dh Dh Dh Dh Dh Dh Dh H H H SP SP H H H H H

SP SP SP SP SP SP

Legenda: S = Stand (Stare) H = Hit (Carta) Dh = Double (Raddoppio. Se non permesso, chiedere carta) Ds = Double (Raddoppio. Se non permesso, stare) SP = Split (Divisione) SU = Surrender (Resa. Se non permessa, chiedere carta) Questa strategia si applica con 3 o pi mazzi di carte, il banco sta sui 17 soft, raddoppio su tutte le coppie, raddoppio dopo la suddivisione consentito e blackjack che paga 3:2.

Blackjack

102

Contare le carte
Questi calcoli e questa regola si basano soltanto sulle carte in gioco in quel momento. Tuttavia possibile sviluppare una ulteriore strategia dovuta al fatto che il numero di carte presenti al tavolo da gioco (cio il numero dei mazzi utilizzati) fisso e al fatto che le carte vengono mescolate soltanto all'inizio del gioco e si continua a giocare tra una mano e l'altra senza rimescolare le carte, ma continuando ad utilizzare le carte rimanenti nel mazzo. Le carte vengono rimescolate soltanto quando si raggiunge il cartoncino divisorio che di solito posto intorno alla met del sabot. Tale carta divisoria determina la percentuale di penetrazione del mazzo, cio il numero di carte che verranno distribuite (rispetto alla totalit presente nei mazzi) prima che abbia luogo la mischiata. Pi tale percentuale alta e maggiori saranno i vantaggi per il giocatore.[1] Risulta pertanto possibile, anche se particolarmente difficile, ricordarsi quali carte sono gi uscite e sapere quindi quali rimangono nel mazzo. L'alto numero delle carte utilizzate rende difficile ricordare individualmente le singole carte; risulta per possibile (anche se rimane difficile) ricordare se dal mazzo sono uscite pi carte di basso valore che carte di alto valore e di conseguenza calcolare la probabilit che dal mazzo venga pescata una carta di valore alto o basso. Tale tecnica viene indicata con il nome di contare le carte. Una situazione con un mazzo di carte con pi carte alte che basse favorevole al giocatore e sfavorevole al banco (perch aumenta la probabilit del banco di superare il 21, dal momento che il banco agisce in modo fisso, che consiste nel continuare a prendere un'ulteriore carta fintanto che non supera tutti i giocatori o finch non arriva a 17, e per altri motivi). Questa difficile tecnica permette pertanto di conoscere quale sia il momento pi propizio per effettuare puntate pi alte. Del Black Jack esistono anche alcune versioni per essere giocate tra tutti giocatori, in cui la parte del mazziere viene alternata tra i vari giocatori. All'interno delle case da gioco invece il ruolo del mazziere sempre tenuto dal personale della casa. Il Black Jack uno dei giochi d'azzardo di banco pi diffusi negli Stati Uniti

Stu Ungar
Stu Ungar, dotato di un quoziente intellettivo che lo classificava come "genio", e di una straordinaria memoria fotografica, era in grado di contare tutte le carte presenti in un sabot di blackjack composto da sei mazzi di carte. Nel 1977 scommise 100.000 dollari con Bob Stupack, proprietario di un casin a Las Vegas, che sarebbe riuscito a contare tutte le carte di un sabot di blackjack composto da sei mazzi, indovinando le ultime tre carte. Ungar vinse la scommessa. Stu fu condannato nel 1982 dalla Commissione del New Jersey sul Gioco d'Azzardo, per presumibile imbroglio al tavolo di blackjack in un casin di Atlantic City. Il casin sostenne che Ungar ponesse di nascosto delle fiches extra sulle sue giocate vincenti, per garantirsi una vincita maggiore. Ungar neg sempre con forza l'accaduto. La condanna gli impose di pagare 500 dollari, cifra quasi insignificante per lui, ma allo stesso tempo lo obbligava ad ammettere di barare, cosa che si rifiut sempre di fare: Ungar sosteneva che la sua memoria e l'abilit nel contare le carte (tecnica non illegale) fossero doti naturali, e che per questo non aveva bisogno in alcun modo di barare al tavolo da blackjack. Ungar port la causa in tribunale e vinse, evitando la multa di 500 dollari; dovette, comunque, pagare circa 50.000 dollari in spese legali e di viaggio. La sua reputazione rest intatta ma, nella sua biografia, dir che la stanchezza per i viaggi ed i dibattimenti fu tale da non permettergli di difendere il titolo nelle WSOP. Il suo talento e la sua reputazione erano talmente notevoli da farlo escludere dal gioco nei casin. Era virtualmente impossibilitato a giocare a blackjack sia a Las Vegas che in qualunque altro posto.

Blackjack

103

Curiosit
Il film 21 si basa sullo sfruttamento di questo metodo per ottenere vittorie sicure.

Note
[1] Penetrazione del mazzo (http:/ / www. blackjack-online. bz/ contare-carte/ #penetrazione)

Collegamenti esterni
Guida al Blackjack online (http://www.blackjackonlineaams.com)

Voci correlate
21 (film) Edward O. Thorp

Fonti e autori delle voci

104

Fonti e autori delle voci


Probabilit Fonte: http://it.wikipedia.org/w/index.php?oldid=52858631 Autori:: 213.21.174.xxx, Alberto da Calvairate, Alearr, Alec, Angela Bonora, Aplasia, Baroc, Blakwolf, Cesalpino, Codicorumus, Erasmo Barresi, F.chiodo, Fredericks, Gabriel96, Gacio, Gaetano licata, Gcappellotto, GiovanniS, Giovannigobbin, Gipiz, Giulio.Nic, Guidomac, Hashar, Ilario, Jalo, Joana, Johnlong, Leitfaden, Luisa, M7, Massimiliano Lincetto, Mau db, MenoUNO, Michele-sama, Mr buick, Phantomas, Piddu, Profste, Riccioli72, Shaka, Snowdog, StefaPorce, Suisui, Tener, Ticket 2010081310004741, Tomi, Toobaz, Twice25, Valitutti, Vituzzu, Ylebru, ^musaz, pppfree165-26-bz.aknet.it, 103 Modifiche anonime Spazio campionario Fonte: http://it.wikipedia.org/w/index.php?oldid=51269611 Autori:: Aubrey, Avesan, Baroc, Buggia, Cesalpino, Domenico De Felice, Gala.martin, Hal8999, Ilario, Leitfaden, Marcuscalabresus, Piddu, Profste, Sbisolo, Sergejpinka, SpiritoLibero, Tomi, Unmarco, 18 Modifiche anonime Indipendenza stocastica Fonte: http://it.wikipedia.org/w/index.php?oldid=47903218 Autori:: 213.21.174.xxx, Arodichevski, Basilero, Buggia, Eumolpo, Flyingstar16, Gala.martin, Lacurus, Lgentema, Piddu, Pokipsy76, Pracchia-78, Simone, Tomi, 5 Modifiche anonime Probabilit condizionata Fonte: http://it.wikipedia.org/w/index.php?oldid=52657429 Autori:: 213.21.174.xxx, Andrisano Antonio, Arodichevski, Barrfind, Buggia, Emptywords, Felisopus, Joevinegar, Leitfaden, Piddu, Pokipsy76, Simone, Suisui, Tomi, Tridim, 21 Modifiche anonime Teorema della probabilit totale Fonte: http://it.wikipedia.org/w/index.php?oldid=50322663 Autori:: 213.21.174.xxx, Alberto da Calvairate, Amanconi, Avesan, Cruscant3, Hellis, Ilario, Leitfaden, Leonardo25, Matteo.bertini, Piddu, Rojelio, Salvatore Ingala, Tomi, 8 Modifiche anonime Distribuzione discreta Fonte: http://it.wikipedia.org/w/index.php?oldid=50208293 Autori:: 213.21.175.xxx, Avesan, Barrfind, Bedo2991, Joana, Lacurus, Lenore, Piddu, Tomi, pppfree166-112-bz.aknet.it, 15 Modifiche anonime Distribuzione discreta uniforme Fonte: http://it.wikipedia.org/w/index.php?oldid=51266176 Autori:: Barrfind, Buggia, Delas, Drakend, Joana, MM, Marcuscalabresus, Michele-sama, No2, Piddu, Sandrobt, Simone, Snowdog, Tomi, Zmlsf2b, pppfree165-15-bz.aknet.it, pppfree166-112-bz.aknet.it, 8 Modifiche anonime Paradosso del compleanno Fonte: http://it.wikipedia.org/w/index.php?oldid=52666608 Autori:: *Raphael*, .mau., Abisys, Alez, Blue star 19, Cenncroithi, Colom, Fafabifiofo, Gi87, Guam, Hellis, Leo72, Luciodem, Marius, Mauron, Michele-sama, Pacionet, Piddu, Poeta60, Rael, Sbisolo, Simo ubuntu, Tomi, Wanblee, Wikiradar, Wolland, Yoruno, 17 Modifiche anonime Distribuzione di Bernoulli Fonte: http://it.wikipedia.org/w/index.php?oldid=52557638 Autori:: Andrisano Antonio, Barrfind, Drakend, Gvittucci, Joana, Marcuscalabresus, Tomi, Utente, pppfree165-204-bz.aknet.it, pppfree165-93-bz.aknet.it, pppfree166-235-bz.aknet.it, 13 Modifiche anonime Processo di Bernoulli Fonte: http://it.wikipedia.org/w/index.php?oldid=48507770 Autori:: Andrisano Antonio, Avemundi, Eumolpo, No2, 4 Modifiche anonime Distribuzione binomiale Fonte: http://it.wikipedia.org/w/index.php?oldid=51266077 Autori:: 213.21.175.xxx, Alez, Barrfind, Berto, CarloV, Codicorumus, Eumolpo, Freddyballo, Gwilbor, Hashar, Iskander, Joana, L'altro giocoliere, Lacurus, Marcuscalabresus, Massimiliano Lincetto, Michele-sama, Onix135, Paopis, Phantomas, Sanremofilo, Simone Scanzoni, Suisui, Tomi, Utente, pppfree166-235-bz.aknet.it, 32 Modifiche anonime Distribuzione geometrica Fonte: http://it.wikipedia.org/w/index.php?oldid=52674445 Autori:: Adamanttt, Baroc, Barrfind, Blakwolf, Bluled, DanieleSciolla, ELPiazza, Ersonny, Frigotoni, Gokhan, Hashar, Jmc.88, Joana, Lprmrz, Massimiliano Panu, Michele-sama, Onix135, Phantomas, Piddu, Sir John, Tomi, Toobaz, Utente, WK, Yatagan, pppfree165-204-bz.aknet.it, pppfree166-112-bz.aknet.it, 41 Modifiche anonime Distribuzione ipergeometrica Fonte: http://it.wikipedia.org/w/index.php?oldid=47232937 Autori:: 213.21.175.xxx, Avemundi, Barrfind, Dr Zimbu, Gimy, Hashar, Joana, Michele-sama, Shankao, Tomi, Utente, pppfree166-235-bz.aknet.it, 13 Modifiche anonime Distribuzione di Pascal Fonte: http://it.wikipedia.org/w/index.php?oldid=51266144 Autori:: Barrfind, Caulfield, Dr Zimbu, Herstory, Joana, Onix135, Piddu, Salvatore Ingala, Tkt2008123110019475, Tomi, pppfree165-204-bz.aknet.it, pppfree166-63-bz.aknet.it, 10 Modifiche anonime Variabili dipendenti e indipendenti Fonte: http://it.wikipedia.org/w/index.php?oldid=39429888 Autori:: Arodichevski, Ary29, Barrfind, Lord Hidelan, Mau db, Simo82, 4 Modifiche anonime Valore atteso Fonte: http://it.wikipedia.org/w/index.php?oldid=52129266 Autori:: Amanconi, Antonio78, Bassabros, Buggia, Codicorumus, Dr Zimbu, Fire90, Gala.martin, Giacomo.lucchese, Gimy, IlBeso, Joevinegar, Lacurus, Luca Antonelli, Onix135, Paul Gascoigne, Phantomas, Piddu, Pokipsy76, Salvo da Palermo, Seics, Soprano71, Stecrimi, Tomi, Toobaz, UP, Utente, Vu Duc Thang, pppfree165-15-bz.aknet.it, 38 Modifiche anonime Varianza Fonte: http://it.wikipedia.org/w/index.php?oldid=52648811 Autori:: Adert, Alexander Luthor, Amanconi, Arodichevski, Aushulz, Barrfind, Epoc, Ercaran, Fabriziogambino, Furriadroxiu, Gabriele85, Grigio60, Gvittucci, Leonardis, Lord Hidelan, Massimiliano Lincetto, Nico86roma, Pacini409, Panairjdde, Paolo Sebastiano Valvo, Paradoxengine, Phantomas, Red Power, Riccioli72, Sandrobt, Seics, Sergejpinka, Stemby, Suisui, Tomi, 71 Modifiche anonime Serie geometrica Fonte: http://it.wikipedia.org/w/index.php?oldid=52748026 Autori:: .mau., Alec, Banus, Cesalpino, Daniberto, Djdomix, Dread83, F l a n k e r, Fede Reghe, Fredericks, Furriadroxiu, Hellis, Kamina, Linux2004, Piddu, Pokipsy76, Roberto.zanasi, Salvatore Ingala, Sandrobt, Senpai, ThG, Toobaz, Touriste, Ylak, Ylebru, Zigozago72, ^musaz, 29 Modifiche anonime Teorema binomiale Fonte: http://it.wikipedia.org/w/index.php?oldid=52948168 Autori:: Alberto da Calvairate, Alu94, Basilero, Buggia, Cesalpino, Fradelpra, Giulio.orru, Gi !, Megalexandros, No2, Paopis, Piddu, Pokipsy76, Salvatore Ingala, Sandrobt, Startrek Leonardo, Sumail, Tommaso Ferrara, Ylebru, 49 Modifiche anonime Triangolo di Tartaglia Fonte: http://it.wikipedia.org/w/index.php?oldid=52855982 Autori:: .mau., Alberto da Calvairate, Alchimista di Cristallo, Ask21, AttoRenato, C.piovesan, Chitarrista, DSK, Domenico De Felice, Don Tricheco, Etienne, Frack, Franztanz, Gac, Gaggio23, Gastaman, GiuseppeMassimo, Gliu, Gmacar, Guidomac, Hellis, Ignlig, Kibira, Klaudio, Leoo, Luca Antonelli, MapiVanPelt, Marcok, Matrobriva, Miistecraulei, Nickanc, No2, Parerga, Phantomas, Piddu, Quatar, Red Power, Salvatore Ingala, Senpai, Shl, Snowdog, TheWiz83, Timendum, Titian1962, To011, Tomi, Ylebru, YukioSanjo, 111 Modifiche anonime Calcolo combinatorio Fonte: http://it.wikipedia.org/w/index.php?oldid=52677949 Autori:: Abbax, Airon90, Alberto da Calvairate, Aleb, Bizio, Deltasun, Fale, Frazzone, Frieda, Frigotoni, Gimy, Guido Maccioni, Guido Magnano, Hobione, Jalo, Kamina, Labba94, Leitfaden, Mikimouse3, Nick, Parerga, Phantomas, Pracchia-78, Qualc1, Ripepette, Shivanarayana, Snowdog, Tomi, Toobaz, Unriccio, Ylebru, 115 Modifiche anonime Poker Fonte: http://it.wikipedia.org/w/index.php?oldid=52629679 Autori:: .anaconda, Abbabash, Alfio, Ambriovunque, AmonSl, Andrea.epifani, Antoniomy, Arahant, Archenzo, Ask21, Assoquadri, Barbaking, CDS33, Calchi, CarloV, Chlorpromazine, Cruccone, Dabao, Danielemarata, Davide21, Delasale, Delfort, Dino246, DostoHouskij, Drugonot, Drumstian, Elisabetta Sanguineti, Elwood, Eumolpo, F l a n k e r, Fabiov, Fale, Fiazzo, Filnik, FrancescaZanutto, Frieda, Fuxpio, Gacio, Gbnogkfs, Ggonnell, Gianfranco, Gliu, Goemon, Goliardico, Guidomac, Gvf, Hamed, Hashar, Hauteville, Helios, Hellis, Hrundi V. Bakshi, Ignlig, Invision2.0, Iron Bishop, Jacopo, Joana, KS, Kibira, Klaudio, L736E, Larry Yuma, LikeLifer, Lilja, Lp, Lucas, Luccaro, M7, MM, Madaki, Manusha, MapiVanPelt, Marcingietorigie, Marco Meloni, Massimiliano Bultrini, Mastazi, Mau db, Mess, Micione, MikyT, Mirko69, Moongateclimber, Moroboshi, NadiaGrace, Nalegato, Nick1915, Olando, Oni link, Ons, Osmosis, POKERFACTOR, PersOnLine, Phantomas, Pino alpino, Poker4passion, Pomo 00, Quaro75, Rafaele liraz, Ranma25783, Rdocb, Reddstain, Riprova, Rojelio, Rollopack, Sailko, Sal.acu, Sesquipedale, Shaka, Simone, Snowdog, Soblue, Squattaturi, StefanoBZ, Stefanopro, Tafkaf, Template namespace initialisation script, ThG, Ticket 2010081310004741, TierrayLibertad, Triquetra, Tund3r, Twice25, Ughetto23, Ugopanco, Vu Duc Thang, Wikirock, Willyminor, Ylebru, 293 Modifiche anonime Problema di Monty Hall Fonte: http://it.wikipedia.org/w/index.php?oldid=52911489 Autori:: .mau., Airon90, Amanconi, Ancelli, Aplasia, Assianir, Aushulz, Avesan, B3t, Baroc, Camera 9, Carlo.milanesi, CavalloRazzo, Diego Petrucci, Doctor Dodge, Dr Zimbu, Etienne, Eumolpo, EvilPrince, Fradelpra, Gvittucci, Hellis, Hires, Holdme, Il Teu, Incola, Jakbest, Joana, Kasper2006, LaseriumFloyd, LoStrangolatore, Luca Antonelli, Lumage, Marco.parrilla, Massimiliano Panu, Matrix87, Metallo, Michele-sama, Mp3.7, Mpitt, Nickanc, Noieraieri, Phantomas, Piddu, Salvo da Palermo, Sandrobt, Sesquipedale, Snowdog, Square87, Stark79, Superzen, The Kraff, Tia solzago, Ticket 2010081310004741, Tomi, Toobaz, Trixt, Vituzzu, Ylebru, 108 Modifiche anonime Lotto Fonte: http://it.wikipedia.org/w/index.php?oldid=51846290 Autori:: 1000voi, Antonello88, Armando, Aushulz, Balfabio, Biscionecanale5, Blakwolf, Carassiti Anna Maria, Cesalpino, Codicorumus, Danilo, Darth Kule, Dega180, Elwood, Emanuele Romeres, Frigotoni, Fulvio314, Gac, Gianfranco, Guidomac, Hal8999, Ignlig, Intellotto, Joana, Jotar, LikeLifer, Lilja, Lobufalo, Luca Antonelli, Lucas, Luckyer, Luckyz, M7, MD 91, Marking72, Megalexandros, Microsoikos, Midnight bird, Moloch981, Nrykko, O--o, Oriettaxx, PastaMGW, PersOnLine, Phantomas, Piddu, Pigr8, Pinello, Rago, RaminusFalcon, Ranma25783, Redbox, Rojelio, Sandrobt, Shivanarayana, Sisterold, Snowdog, Stefano-c, StefanoM, Tenebroso, TheLotter, Ticket 2010081310004741, Under, 174 Modifiche anonime

Fonti e autori delle voci


Roulette Fonte: http://it.wikipedia.org/w/index.php?oldid=52068919 Autori:: Aplasia, Ares, Ary29, Avesan, Bart88, Bartleby08, Barz8, BohemianRhapsody, Buggia, Casinoonline24, Cialz, Cinzia1211, Claude85, Conte di Sarre, Delfort, Dino246, Domenico De Felice, Gacio, Gliu, Kranjo, L736E, LikeLifer, Lucas, M7, MaiDireChiara, Mala, Mark91, Maugiannoni, Metralla, No2, Personne1212, Phantomas, Pozivo, Ranma25783, Salento81, Shivanarayana, Simon70, SimoneMLK, Simonmagic, Ticket 2010081310004741, Toobaz, Torsolo, Wikirock, 82 Modifiche anonime Blackjack Fonte: http://it.wikipedia.org/w/index.php?oldid=52629742 Autori:: AnyFile, Ariel, Astrokey44, AttoRenato, B3t, Bart88, Casinoonline24, Crepuscolo1910, Crys0000, DaniDF1995, Elcerqua, Eumolpo, Eustace Bagge, F l a n k e r, Fale, Freude.schoner.gotterfunken, Gacio, Gce, Giovannigobbin, Giudice frump, Goemon, Guidomac, Gvf, Helios, Kallima, Kiky&glo, Kill off, Koji, Laurentius, LikeLifer, Lorenzo RB, Lp, Lucas, Luisa, M7, MapiVanPelt, Marcingietorigie, Marcok, Mau db, Melia77, Midnight bird, Paginazero, Paulie3691, Piddu, Pino alpino, Pitroipa10, Rael, Retaggio, Rinina25, Rojelio, Shaka, Shivanarayana, Shout, Simon70, Snowdog, Tadino, Tommaso Ferrara, Toobaz, Twice25, Umberto1969, Veneziano, Vipera, Vu Duc Thang, Wappi76, Wikirock, Znick85, 129 Modifiche anonime

105

Fonti, licenze e autori delle immagini

106

Fonti, licenze e autori delle immagini


File:6sided dice.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:6sided_dice.jpg Licenza: Creative Commons Attribution-Sharealike 3.0 Autori:: Diacritica Immagine:prob_totale.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Prob_totale.png Licenza: GNU Free Documentation License Autori:: Utente:Matteo.bertini Image:DUniform_distribution_PDF.png Fonte: http://it.wikipedia.org/w/index.php?title=File:DUniform_distribution_PDF.png Licenza: GNU Free Documentation License Autori:: EugeneZelenko, PAR, WikipediaMaster Image:DUniform_distribution_CDF.png Fonte: http://it.wikipedia.org/w/index.php?title=File:DUniform_distribution_CDF.png Licenza: GNU Free Documentation License Autori:: EugeneZelenko, PAR, WikipediaMaster File:Birthday Paradox.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Birthday_Paradox.svg Licenza: Creative Commons Attribution-Sharealike 3.0 Autori:: Rajkiran g Image:Binomial distribution pmf.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Binomial_distribution_pmf.svg Licenza: Public Domain Autori:: Tayste Image:Binomial distribution cdf.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Binomial_distribution_cdf.svg Licenza: Public Domain Autori:: Tayste Image:Geometricpdf.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Geometricpdf.jpg Licenza: GNU Free Documentation License Autori:: Joxemai, Magog the Ogre, Olaf Image:Geometriccdf.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Geometriccdf.jpg Licenza: GNU Free Documentation License Autori:: Original uploader was AdamSmithee at en.wikipedia Image:Negbinomial.gif Fonte: http://it.wikipedia.org/w/index.php?title=File:Negbinomial.gif Licenza: Public Domain Autori:: Stpasha File:Pascal's triangle 5.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Pascal's_triangle_5.svg Licenza: GNU Free Documentation License Autori:: User:Conrad.Irwin originally User:Drini File:Yanghui triangle.PNG Fonte: http://it.wikipedia.org/w/index.php?title=File:Yanghui_triangle.PNG Licenza: Public Domain Autori:: David Shay, Foroa, JMCC1, Mdd File:PascalTriangleAnimated2.gif Fonte: http://it.wikipedia.org/w/index.php?title=File:PascalTriangleAnimated2.gif Licenza: Creative Commons Attribution-Share Alike Autori:: Hersfold on the English Wikipedia Immagine:Commons-logo.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Commons-logo.svg Licenza: logo Autori:: SVG version was created by User:Grunt and cleaned up by 3247, based on the earlier PNG version, created by Reidab. File:DavidSklansky1979.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:DavidSklansky1979.jpg Licenza: sconosciuto Autori:: Dead mans hand, Deerstop File:Doyle Brunson.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Doyle_Brunson.jpg Licenza: Creative Commons Attribution-Sharealike 2.0 Autori:: Photos by flipchip / LasVegasVegas.com File:Phil Hellmuth 2006.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Phil_Hellmuth_2006.jpg Licenza: Creative Commons Attribution-Sharealike 2.0 Autori:: Photos by flipchip / LasVegasVegas.com Immagine:Wikibooks-logo.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Wikibooks-logo.svg Licenza: logo Autori:: User:Bastique, User:Ramac et al. Immagine:Wikiquote-logo.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Wikiquote-logo.svg Licenza: Public Domain Autori:: -xfi-, Dbc334, Doodledoo, Elian, Guillom, Jeffq, Krinkle, Maderibeyza, Majorly, Nishkid64, RedCoat, Rei-artur, Rocket000, 11 Modifiche anonime File:Paradosso di Monty Hall.gif Fonte: http://it.wikipedia.org/w/index.php?title=File:Paradosso_di_Monty_Hall.gif Licenza: Public domain Autori:: Iraiscoming223 File:Monty open door.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Monty_open_door.svg Licenza: Public Domain Autori:: Cepheus File:Monty open door chances.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Monty_open_door_chances.svg Licenza: Public Domain Autori:: Cepheus File:Logo Lotto.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Logo_Lotto.png Licenza: sconosciuto Autori:: Balfabio, ZioNicco File:LHortus Deliciarum.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:LHortus_Deliciarum.jpg Licenza: Public Domain Autori:: Ecelan, Iustinus, Mattes, Schimmelreiter File:10eLotto.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:10eLotto.jpg Licenza: sconosciuto Autori:: MD 91, ZioNicco Immagine:Wikinews-logo.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Wikinews-logo.svg Licenza: logo Autori:: Vectorized by Simon 01:05, 2 August 2006 (UTC) Updated by Time3000 17 April 2007 to use official Wikinews colours and appear correctly on dark backgrounds. Originally uploaded by Simon. File:Roulette wheel.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Roulette_wheel.jpg Licenza: Creative Commons Attribution 2.0 Autori:: Toni Lozano File:Roulette frz.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Roulette_frz.png Licenza: Public Domain Autori:: Bukk, Darsie, Denniss, Gregors, Hautala, Jed, Mattes, Medvedev, Pumbaa80, 1 Modifiche anonime File:Roulette wheel it.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Roulette_wheel_it.png Licenza: sconosciuto Autori:: Kranjo File:Blackjack game example.JPG Fonte: http://it.wikipedia.org/w/index.php?title=File:Blackjack_game_example.JPG Licenza: GNU Free Documentation License Autori:: Dice yo11, Roke, Tintazul, Yonatanh, 9 Modifiche anonime

Licenza

107

Licenza
Creative Commons Attribution-Share Alike 3.0 Unported //creativecommons.org/licenses/by-sa/3.0/