PR08A81L1TA' A P3DAL1
PDF generato attraverso il toolkit opensource ''mwlib''. Per maggiori informazioni, vedi [[http://code.pediapress.com/ http://code.pediapress.com/]].
PDF generated at: Mon, 17 Dec 2012 06:23:07 UTC
Indice
Voci
PR08A81L1TA' di Base
1
Probabilità
1
Spazio campionario
8
Teoria della probabilità
13
Indipendenza stocastica
15
Teorema della probabilità composta
16
Teorema della probabilità assoluta
17
Probabilità condizionata
18
Teorema di Bayes
20
Rapporti agili
24
Distribuzione discreta
24
Distribuzione discreta uniforme
25
Distribuzione di Bernoulli
29
Processo di Bernoulli
30
Distribuzione binomiale
32
Distribuzione geometrica
36
Distribuzione di Poisson
39
Distribuzione di Pascal
44
53 X ...
48
Distribuzione continua
48
Funzione di ripartizione
50
Funzione di densità di probabilità
53
Variabile casuale
55
Variabili dipendenti e indipendenti
60
Valore atteso
61
Varianza
64
Legge della varianza totale
67
Covarianza
68
Deviazione standard
70
Media (statistica)
73
Distribuzione normale
78
Funzione di ripartizione della variabile casuale normale
83
Distribuzione t di Student
85
Distribuzione chi quadrato
91
Distribuzione di Fisher-Snedecor
97
Cima Coppi
101
Disuguaglianza di Čebyšëv
101
Disuguaglianza di Markov
103
Legge dei grandi numeri
103
Teoremi centrali del limite
108
Processo markoviano
113
Pignoni
117
Calcolo combinatorio
117
Coefficiente binomiale
120
Teorema binomiale
122
Coefficiente multinomiale
125
Tappe in linea
127
Problema di Monty Hall
127
Paradosso delle tre carte
136
Paradosso dei due bambini
138
Paradosso del compleanno
141
Blackjack
142
Poker
147
Roulette
152
Hors Catégorie
156
Continuità assoluta
156
Integrale
158
Convoluzione
170
Sigma-algebra
174
Algoritmo di Metropolis-Hastings
178
Metodo Monte Carlo
179
Defaticamento
187
Statistica
187
Inferenza statistica
192
Campionamento statistico
194
Box-plot
196
Istogramma
197
Quantile
198
Quartile
200
Indicatore statistico
200
Indice di posizione
203
Intervallo di confidenza
203
Ipotesi nulla
204
Test di verifica d'ipotesi
204
Note
Fonti e autori delle voci
207
Fonti, licenze e autori delle immagini
210
Licenze della voce
Licenza
211
1
PR08A81L1TA' di Base
Probabilità
Il concetto di probabilità, utilizzato a partire dal '600, è diventato con il passare del tempo la base di diverse
discipline scientifiche rimanendo tuttavia non univoco. In particolare su di esso si basa una branca della statistica (la
statistica inferenziale), cui fanno ricorso numerose scienze sia naturali che sociali.
Cenni storici
I primi studi che portarono successivamente a concetti legati alla
probabilità possono essere trovati a metà del XVI secolo in Liber de
ludo aleæ di Girolamo Cardano (scritto nel 1526, ma pubblicato solo
un secolo e mezzo dopo, nel 1663) e in Sulla scoperta dei dadi di
Galileo Galilei (pubblicato nel 1656). In particolare, Galileo spiegò
come mai, lanciando tre dadi, la probabilità di uscita delle somme 10 e
11 sia più probabile dell'uscita del 9 e del 12, nonostante entrambi i
risultati si ottengano da un uguale numero di combinazioni.[1]
Alcuni dadi a sei facce.
Il problema della ripartizione della posta in gioco nel caso che un gioco d'azzardo debba essere interrotto, venne
affrontato da Luca Pacioli, noto anche come Fra Luca dal Borgo, nella sua Summa de arithmetica, geometria,
proportioni et proportionalita (pubblicata nel 1494) e successivamente da Tartaglia, per poi essere risolto da Pascal e
Fermat.
La nascita del concetto moderno di probabilità viene attribuita a Blaise Pascal (1623-1662) e Pierre de Fermat
(1601-1665). Il Cavalier de Méré (un accanito giocatore passato alla storia per questo) aveva calcolato che ottenere
almeno un 6 in 4 lanci di un dado non truccato era equivalente ad ottenere almeno un doppio 6 in 24 lanci, sempre di
un dado non truccato. Tuttavia, giocando secondo tale convinzione, invece di vincere perdeva e scrisse a Pascal
lamentando che la matematica falliva di fronte all'evidenza empirica.[2] Da ciò scaturì una corrispondenza tra Pascal
e Fermat in cui iniziò a delinearsi il concetto di probabilità nell'accezione frequentista.
Pascal annunciò nel 1654 all'Accademia di Parigi che stava lavorando sul problema della ripartizione della messa in
gioco. E in una lettera del 29 luglio dello stesso anno a Fermat propose la soluzione del problema, affrontato con il
metodo per ricorrenza, mentre Fermat utilizzava metodi basati sulle combinazioni.
Nel 1657 Christiaan Huygens (1629-1695) scrisse un Libellus de ratiociniis in ludo aleæ,[3], il primo trattato sul
calcolo delle probabilità, nel quale introduceva il concetto di valore atteso.
I suoi lavori influenzarono tra l'altro Pierre de Montmort (1678-1719), che scrisse nel 1708 un Essai d'analyse sur le
jeux de hasard, ma anche Jakob Bernoulli e Abraham de Moivre.
Nel 1713 viene pubblicato postumo Ars conjectandi di Jakob Bernoulli, dove veniva dimostrato il teorema che porta
il suo nome, noto anche come legge dei grandi numeri. Successivamente, de Moivre pervenne ad una prima
formulazione, poi generalizzata da Pierre Simon Laplace (1749-1827), del Teorema centrale del limite. La teoria
delle probabilità raggiunse così basi matematicamente solide e, con esse, il rango di nuova disciplina.
In essa esercita un ruolo centrale il rapporto tra casi favorevoli e casi possibili e la probabilità è un numero
intrinsecamente legato ad un evento. Negli anni centrali del XX secolo, tuttavia, prima Bruno de Finetti e poi
Leonard Jimmie Savage hanno elaborato una concezione soggettiva della probabilità, secondo cui essa è il grado di
Probabilità
fiducia che una persona ha nel verificarsi dell'evento.
Nello stesso periodo, Andrey Nikolaevich Kolmogorov ha dato inizio alla moderna teoria assiomatica
(Grundbegriffe der Wahrscheinlichkeitsrechnung, 1933), ispirandosi alla teoria della misura. Si è così affermata una
teoria della probabilità puramente matematica, che generalizza il patrimonio matematico comune alle diverse
impostazioni.
Definizioni
In probabilità si considera un fenomeno osservabile esclusivamente dal punto di vista della possibilità o meno del
suo verificarsi, prescindendo dalla sua natura. Tra due estremi, detti evento certo (ad esempio: lanciando un dado si
ottiene un numero compreso tra 1 e 6) ed evento impossibile (ottenere 1 come somma dal lancio di due dadi), si
collocano eventi più o meno probabili (aleatori).
Si usa il linguaggio della teoria degli insiemi: un insieme non vuoto Ω ha come elementi tutti i risultati possibili di
un esperimento; l'evento che risulta verificato da un unico risultato (un unico elemento di Ω) viene detto evento
elementare; altri eventi sono sottoinsiemi di Ω costituiti da più risultati.[4]
Gli eventi vengono normalmente indicati con lettere maiuscole. Dati due eventi A e B, si indica con A∪B la loro
unione, ovvero l'evento costituito dal verificarsi dell'evento A oppure dell'evento B. Si indica con A∩B la loro
intersezione, ovvero l'evento costituito dal verificarsi sia dell'evento A che dell'evento B.[5] Se A∩B = ∅ i due eventi
A e B vengono detti incompatibili (non possono verificarsi simultaneamente). Il complemento di un evento A rispetto
a Ω, Ω\A, è detto negazione di A e indica il suo non verificarsi (ovvero il verificarsi dell'evento complementare).
Definizione classica
Secondo la prima definizione di probabilità, per questo detta classica, la probabilità di un evento è il rapporto tra il
numero dei casi favorevoli all'evento e il numero dei casi possibili, purché questi ultimi siano tutti equiprobabili.
Questa definizione è spesso attribuita a Pierre Simon Laplace e quindi anche identificata definizione classica di
Laplace.
Indicando con Ω l'insieme di casi possibili e con |Ω|=n la sua cardinalità, con A un evento e con nA il numero dei casi
favorevoli ad A (ad esempio, nel lancio di un dado Ω={1,2,3,4,5,6}, n = 6, A = "numero pari", nA = 3), la probabilità
di A, indicata con P(A), è pari a:
Dalla definizione seguono tre regole:
1. la probabilità di un evento aleatorio è un numero compreso tra 0 e 1;
2. la probabilità dell'evento certo è pari a 1; se A = "numero compreso tra 1 e 6", nA = 6 e nA/n = 1;
3. la probabilità del verificarsi di uno di due eventi incompatibili, ovvero di due eventi che non possono verificarsi
simultaneamente, è pari alla somma delle probabilità dei due eventi; se A = "numero pari", con P(A) = 1/2, e B=
"esce il 3", con P(B) = 1/6, la probabilità che tirando un dado si ottenga un numero pari oppure un 3 è:
La definizione classica consente di calcolare effettivamente la probabilità in molte situazioni. Inoltre, è una
definizione operativa e fornisce quindi un metodo per il calcolo. Presenta tuttavia diversi aspetti negativi non
irrilevanti:
• dal punto di vista formale, è una definizione circolare: richiede che i casi possiedano tutti la medesima
probabilità, che è però ciò che si vuole definire;
• non definisce la probabilità in caso di eventi non equiprobabili;
• presuppone un numero finito di risultati possibili e di conseguenza non è utilizzabile nel continuo.
2
Probabilità
Definizione frequentista
Per superare tali difficoltà, Richard von Mises (1883-1953) propose di definire la probabilità di un evento come il
limite cui tende la frequenza relativa dell'evento al crescere del numero degli esperimenti:
La definizione frequentista si applica ad esperimenti casuali i cui eventi elementari non siano ritenuti ugualmente
possibili, ma assume che l'esperimento sia ripetibile più volte, idealmente infinite, sotto le stesse condizioni.
Anche tale definizione consente di calcolare la probabilità di molti eventi e da essa si ricavano le stesse tre regole
che seguono dalla definizione classica. È sufficiente, infatti, sostituire il rapporto tra numero dei casi favorevoli nA e
numero dei casi possibili n con il limite del rapporto per n tendente all'infinito.
Tuttavia:
• il "limite" delle frequenze relative non è paragonabile all'analogo concetto matematico; ad esempio, data una
successione {an}, si dice che a è il suo limite se per ogni ε > 0 esiste un numero naturale N tale che |an - a| < ε per
ogni n > N, e, comunque dato ε, è sempre possibile calcolare N; nella definizione frequentista, invece, N non è
sempre calcolabile;
• non tutti gli esperimenti sono ripetibili; ad esempio, ha sicuramente senso chiedersi quale sia la probabilità che vi
sia vita su Marte o che tra 50 anni il tasso di natalità in Africa diventi la metà di quello attuale, ma in casi simili
non è possibile immaginare esperimenti ripetibili all'infinito.
Definizione soggettiva
De Finetti e Savage[6] hanno proposto una definizione di probabilità applicabile ad esperimenti casuali i cui eventi
elementari non siano ritenuti ugualmente possibili e che non siano necessariamente ripetibili più volte sotto le stesse
condizioni: la probabilità di un evento è il prezzo che un individuo ritiene equo pagare per ricevere 1 se l'evento si
verifica, 0 se l'evento non si verifica.
Al fine di rendere concretamente applicabile la definizione, si aggiunge un criterio di coerenza: le probabilità degli
eventi devono essere attribuite in modo tale che non sia possibile ottenere una vincita o una perdita certa.
In tal modo è possibile ricavare dalla definizione soggettiva le stesse tre regole già viste.
1. P(A) è compresa tra 0 e 1; se infatti fosse negativa si avrebbe un guadagno certo, se fosse maggiore di 1 si
avrebbe una perdita certa;
2. P(Ω) = 1; se l'evento è certo, si riceverà sicuramente 1, ma se fosse P(Ω) < 1 si avrebbe un guadagno certo, pari a
1 - P(Ω), se invece fosse P(Ω) > 1 si avrebbe una perdita certa;
3. se A∩B = ∅, P(A∪B) = P(A)+P(B). Si osserva preliminarmente che se gli n eventi A1, A2, ..., An sono
incompatibili (non possono presentarsi insieme) e necessari (uno di loro deve necessariamente verificarsi), la
somma delle probabilità P(Ai), con i che va da 1 a n, è uguale a 1; infatti, se si paga P(Ai) per ciascun evento, se la
somma fosse inferiore a 1 si avrebbe un guadagno certo, se fosse superiore si avrebbe una perdita certa. Si
considerano poi gli eventi incompatibili A e B e l'evento complemento della loro unione; i tre eventi sono
incompatibili e necessari e si ha:
Sono però incompatibili anche l'unione di A e B ed il suo complemento:
Dalle due uguaglianze segue:
se
, allora
La definizione soggettiva consente quindi di calcolare la probabilità di eventi anche quando gli eventi elementari non
sono equiprobabili e quando l'esperimento non può essere ripetuto. Rimane fondata, tuttavia, sull'opinione di singoli
individui, che potrebbero presentare diverse propensioni al rischio. .Basta pensare che molti sarebbero disposti a
3
Probabilità
4
giocare 1 euro per vincerne 1000, ma pochi giocherebbero un milione di euro per vincerne un miliardo.....
Definizione assiomatica
L'impostazione assiomatica della probabilità venne proposta da Andrey Nikolaevich Kolmogorov nel 1933 in
Grundbegriffe der Wahrscheinlichkeitsrechnung (Concetti fondamentali del calcolo delle probabilità), sviluppando
la ricerca che era ormai cristallizzata sul dibattito fra quanti consideravano la probabilità come limiti di frequenze
relative (cfr. impostazione frequentista) e quanti cercavano un fondamento logico della stessa.
Va notato che la definizione assiomatica non è una definizione operativa e non fornisce indicazioni su come
calcolare la probabilità. È quindi una definizione utilizzabile sia nell'ambito di un approccio oggettivista che
nell'ambito di un approccio soggettivista.
Il nome deriva dal procedimento per "assiomatizzazione" quindi nell'individuare i concetti primitivi, da questi
nell'individuare i postulati da cui poi si passava a definire i teoremi.
L'impostazione assiomatica muove dal concetto di σ-algebra, o classe additiva. Dato un qualsiasi esperimento
casuale, i suoi possibili risultati costituiscono gli elementi di un insieme non vuoto Ω, detto spazio campionario, e
ciascun evento è un sottoinsieme di Ω. La probabilità viene vista, in prima approssimazione, come una misura, cioè
come una funzione che associa a ciascun sottoinsieme di Ω un numero reale non negativo tale che la somma delle
probabilità di tutti gli eventi sia pari a 1.
Se Ω ha cardinalità finita n o infinita numerabile, l'insieme di tutti i suoi sottoinsiemi, detto insieme delle parti, ha,
rispettivamente, cardinalità 2n o la cardinalità del continuo. Tuttavia, se Ω ha la cardinalità del continuo, il suo
insieme delle parti ha cardinalità superiore e risulta "troppo grande" perché si possa definire su di esso una misura. Si
considerano pertanto i soli sottoinsiemi di Ω che costituiscono una classe additiva
, ovvero un insieme non vuoto
tale che
• se un evento A appartiene ad
, vi appartiene anche il suo complemento:
• se un'infinità numerabile di eventi, A1, A2, ... An, ..., appartiene ad
, vi appartiene anche l'evento costituito
dalla loro unione:
Una classe additiva è quindi un sottoinsieme delle insieme delle parti di Ω che risulta chiuso rispetto alle operazioni
di complemento e di unione numerabile.
Si può aggiungere che una classe additiva è chiusa anche rispetto all'intersezione, finita o numerabile, in quanto per
le leggi di De Morgan si ha:
(il secondo membro dell'uguaglianza appartiene alla classe in quanto complemento di una unione numerabile dei
complementi di insiemi che vi appartengono).
Si pongono i seguenti assiomi (che includono le tre regole ricavabili dalle definizioni precedenti):
1.
2.
3.
4.
Gli eventi sono sottoinsiemi di uno spazio Ω e formano una classe additiva
.
Ad ogni evento
è assegnato un numero reale non negativo P(A), detto probabilità di A.
P(Ω)=1, ovvero la probabilità dell'evento certo è pari ad 1.
Se l'intersezione tra due eventi A e B è vuota, allora P(A∪B)=P(A)+P(B).
5. Se An è una successione decrescente di eventi e al tendere di n all'infinito l'intersezione degli An tende all'insieme
vuoto, allora P(An) tende a zero:[7]
Probabilità
La funzione P(A) viene detta funzione di probabilità, o anche distribuzione di probabilità. La terna
5
viene
detta spazio di probabilità.
Dagli assiomi si ricavano immediatamente alcune proprietà elementari della probabilità:
• Se P(A) è la probabilità di un evento A, la probabilità dell'evento complementare è 1-P(A). Infatti, poiché
l'intersezione di A e del suo complemento è vuota e la loro unione è Ω, dagli assiomi 3 e 4 si ricava:
• La probabilità dell'evento impossibile è pari a zero. Infatti l'insieme vuoto è il complemento di Ω e si ha:
• La probabilità di un evento è minore o uguale a 1. Infatti, dovendo la probabilità essere non negativa per il
secondo assioma, si ha:
• Se un evento A è incluso in un evento B, allora la sua probabilità è minore o uguale a quella di B. Infatti, se B
include A può essere espresso come unione di insiemi disgiunti e si ha:
Teoremi di base
Dai suddetti assiomi derivano alcuni teoremi e concetti fondamentali.
Il teorema della probabilità totale consente di calcolare la probabilità dell'unione di due o più eventi, ovvero la
probabilità che si verifichi almeno uno di essi. Essa è la somma delle probabilità dei singoli eventi se sono a due a
due incompatibili; in caso contrario, alla somma va sottratta la somma delle probabilità delle intersezioni due a due,
poi aggiunta la somma delle probabilità delle intersezioni a tre a tre e così via. Ad esempio, nel caso di tre eventi:
Si dice probabilità condizionata di A dato B, e si scrive P(A|B), la probabilità che l'evento A ha di verificarsi quando
si sa che B si è verificato:
Attraverso tale concetto si perviene al teorema della probabilità composta, che consente di calcolare la probabilità
dell'intersezione di due o più eventi, ovvero la probabilità che essi si verifichino tutti. Nel caso di due eventi (che può
essere generalizzato), si ha:
Nel caso che la probabilità di A dato B, P(A|B), sia uguale a P(A), i due eventi vengono definiti indipendenti
stocasticamente (o probabilisticamente) e dalla stessa definizione segue una diversa formulazione della probabilità
composta, caso particolare del precedente: P(A∩B)=P(A)P(B).
Il teorema di Bayes consente di calcolare la probabilità a posteriori di un evento Ai, quando si sappia che si è
verificato un evento E. Se Ai appartiene ad un insieme finito o numerabile di eventi a due a due incompatibili, e se E
si verifica allora si verifica necessariamente uno degli eventi di tale insieme (ed uno solo, dato che sono
incompatibili), allora, conoscendo le probabilità a priori degli eventi Ai e le probabilità condizionate P(E|Ai) e
sapendo che si è verificato E, si può calcolare la probabilità a posteriori di un particolare Ai:
Più discorsivamente: se si conoscono sia le probabilità a priori delle diverse possibili "cause" di E (ma non si sa per
effetto di quale di esse E si è verificato), sia le probabilità condizionate di E data ciascuna delle cause, è possibile
calcolare la probabilità che E si sia verificato per effetto di una particolare causa.
Probabilità
Difficoltà nell'utilizzo delle probabilità
Quante insidie vi siano nei ragionamenti sulle probabilità - al di là delle difficoltà nella comprensione di cosa possa
essere la probabilità - viene messo in evidenza da alcuni cosiddetti paradossi, dove in realtà si tratta di domande con
risposte apparentemente illogiche:
• nel paradosso delle tre carte l'errore consiste solitamente nel non avere identificato correttamente quali siano gli
eventi: i lati delle carte e non le carte stesse
• nel paradosso dei due bambini l'errore consiste solitamente nel non distinguere eventi diversi, ovvero nel
considerare un unico evento quelli che in realtà sono due
• nel problema di Monty Hall la difficoltà consiste anzitutto nell'accettare l'idea che una nuova informazione può
modificare le probabilità di eventi, senza che il mondo reale cambi, l'altro errore consiste nel non analizzare
completamente e dunque valutare correttamente la nuova informazione acquisita.
Una ulteriore fonte di confusione può essere data dal presupporre (sbagliando) che il fatto che un evento abbia
probabilità 1 implica che esso avvenga sempre (invece che quasi certamente).
Probabilismo ontico
Il probabilismo ontico è una teoria ontologica in base alla quale ciò che è necessario rappresenta il massimo delle
probabilità e ciò che è casuale il minimo delle probabilità. L'alternanza dialettica necessità/caso si dà quindi in una
scala astratta, ma matematicamente calcolabile per approssimazione caso per caso con adeguati algoritmi, dove la
casualità è l'estrema improbabilità e la necessità l'estrema probabilità.
Note
[1] Il 9 si ottiene con le sei combinazioni (1,2,6), (1,3,5), (1,4,4), (2,2,5), (2,3,4), (3,3,3), il 10 con le sei combinazioni (1,3,6), (1,4,5), (2,2,6),
(2,3,5), (2,4,4), (3,3,4), l'11 con (1,4,6), (2,3,6), (2,4,5), (1,5,5), (3,3,5), (3,3,4) e il 12 con (1,5,6), (2,4,6), (2,5,5), (3,4,5), (3,3,6), (4,4,4).
Tuttavia, mentre una combinazione di tre numeri uguali può presentarsi in un solo modo, una con due numeri uguali può presentarsi in tre
modi diversi, una con tre numeri diversi in sei modi diversi. Si può quindi ottenere il 10 e l'11 in 27 modi (6+6+3+6+3+3), il 9 e il 12 in 25
modi (6+6+3+3+6+1).
[2] Secondo il Cavaliere, essendo 1/6 la probabilità del 6 con un dado, in quattro lanci la probabilità sarebbe 4 × 1/6 = 2/3; la probabilità del
doppio 6 in due lanci è invece 1/36 e, per arrivare a 2/3, occorrono 24 lanci: 24 × 1/36 = 2/3. In realtà la probabilità di ottenere almeno un 6 si
calcola meglio a partire dall'evento complementare, "nessun 6 in quattro lanci", che è (5/6)4, e sottraendo questa da 1, ottenendo il 51,8%;
nello stesso modo si calcola che la probabilità di almeno un doppio 6 in 24 lanci è 1 – (35/36)24 = 49%.
[3] La ristampa della traduzione inglese è disponibile in http:/ / www. stat. ucla. edu/ history/ huygens. pdf.
[4] Ad esempio, nel lancio di un dado l'insieme Ω è costituito dai sei risultati {1,2,3,4,5,6}; l'evento "esce il 3" è rappresentato dall'insieme {3},
l'evento "esce un numero pari" è rappresentato dall'insieme {2,4,6}.
[5] Ad esempio, restando al lancio di un dado, se A = {2} e B = {4,6}, l'evento A∪B è {2,4,6}, ovvero "esce un numero pari". Se invece A =
"esce un numero pari" e B = "esce un numero minore o uguale a 3", A∩B = {2}.
[6] L'impostazione soggettiva era stata anticipata da Ramsey nel 1926.
[7] Una successione di insiemi è detta decrescente se ciascun insieme include il successivo. V. Limite insiemistico.
6
Probabilità
Bibliografia
•
•
•
•
Remo Cacciafesta, Lezioni di calcolo delle probabilità, Veschi, Roma, 1983
Giorgio Dall'Aglio, Calcolo delle probabilità, Zanichelli, Bologna, 2003
Domenico Piccolo, Statistica, Il Mulino, Bologna, 1998, Parte Seconda, Cap. VIII, pp. 215-291
Devlin Keith, La lettera di Pascal. Storia dell'equazione che ha fondato la teoria della probabilità, Rizzoli, 2008
Voci correlate
•
•
•
•
•
•
•
•
•
Teoria della probabilità
Probabilismo
Evento
Teorema di Cox
Campionamento statistico
Logica della diagnosi clinica
Legge dei grandi numeri
Kolmogorov.
Bruno de Finetti
•
•
•
•
•
•
Meccanica quantistica
Indeterminismo
Statistica
Statistica inferenziale
Storia della statistica
Calcolo combinatorio
Collegamenti esterni
• (EN) Probability and Statistics EBook (http://wiki.stat.ucla.edu/socr/index.php/EBook)
• (FR) Journal sur l'histoire des probabilités et des statistiques (http://www.jehps.net/) et site associé (articles,
bibliographie, biographies)
7
Spazio campionario
8
Spazio campionario
Nel calcolo delle probabilità lo spazio campionario o insieme universo (generalmente indicato dalle lettere S, Ω o
U) è l'insieme dei possibili risultati di un esperimento casuale. Ad esempio, nel lancio di un dado lo spazio
campionario è l'insieme {1,2,3,4,5,6}, nel lancio di una moneta può essere l'insieme {testa, croce}, e così via. Lo
spazio campionario può anche avere infiniti elementi: se, ad esempio, siamo interessati allo studio della caduta di
una pallina su un pavimento, lo spazio campionario corrisponderà all'insieme dei punti del pavimento, considerati
tutti come possibili punti di impatto della pallina.
Definizioni formali
Eventi
Dato un esperimento casuale è detto evento elementare
Si dice evento un qualsiasi sottoinsieme
uno dei possibili esiti dell’esperimento stesso.
dello spazio campionario
. Dunque un evento non è altro che un
raggruppamento di uno o più eventi elementari.
L'evento corrispondente all'intero spazio campionario
(costituito da tutti gli eventi elementari) è detto evento
certo.
L'evento corrispondente all'insieme vuoto (costituito da nessun evento elementare) è detto evento impossibile.
Dato uno spazio campionario associato a un esperimento, può darsi che l'analisi da condurre non coinvolga tutti i
possibili eventi ma solo una parte di essi. Gli eventi che hanno un ruolo in una specifica analisi vengono detti eventi
di interesse.
Sigma-algebra
Sia
uno spazio arbitrario purché non vuoto. Una famiglia
sottoinsiemi
) è detta
di eventi di
-algebra (sigma-algebra) se contiene
(cioè una qualsiasi collezione di
ed è chiusa rispetto alle operazioni
insiemistiche di unione numerabile e complementazione, ovvero se soddisfa le seguenti tre proprietà:
1.
2.
3.
ovvero: (1) l'evento certo è un evento (come dire: "succede qualcosa"); (2) la negazione di un qualsiasi evento è essa
stessa un evento. (3) qualsiasi unione di eventi è un evento (per esempio l'evento "si verifica E o F" è l'unione degli
eventi "si verifica E" e "si verifica F").
La proprietà 1. è del tutto equivalente a:
1'.
La proprietà 3. è del tutto equivalente a:
3'.
cioè una sigma-algebra è anche chiusa rispetto a intersezioni numerabili.
La sigma-algebra è il metodo più appropriato per descrivere un insieme di eventi dato un insieme di eventi
elementari. Essa è una generalizzazione del concetto di algebra di insiemi, che richiede solo la stabilità per unioni
finite.
Spazio campionario
9
Tuttavia se si utilizzasse il concetto di algebra di insiemi per descrivere il concetto di evento si incorrerebbe nello
spiacevole inconveniente di non considerare eventi dei fenomeni quali "prima o poi piove". Infatti questo evento è
traducibile in linguaggio insiemistico come "piove oggi" oppure "piove domani" oppure " piove dopodomani"
oppure ...; ovvero l'evento
è descritto dall'unione di infiniti eventi,
definizione di algebra potrebbe essere
, quindi
, da cui deriva che per la
non sarebbe un evento che viene considerato nel
nostro modello, il che sembra piuttosto deludente. Per ovviare a ciò si introduce la nozione di sigma-algebra sopra
esposta.
Dato uno spazio arbitrario
e una famiglia
di suoi sottoinsiemi è possibile, sempre e in vari modi, estendere la
famiglia sino a renderla una sigma-algebra. La più piccola sigma-algebra contenente la famiglia
con
viene indicata
e detta sigma-algebra generata dalla famiglia.
Le sigma-algebre sono un concetto ampiamente trattato in teoria della misura.
Spazio campionario
L’insieme
degli eventi elementari, visti come punti, viene detto spazio campionario. Una sigma-algebra costruita
su di esso viene detta spazio degli eventi.
Osservazioni
Nell'insieme delle parti di
gli elementi sono i sottoinsiemi di
un sottoinsieme dell’insieme
Un evento
delle parti di
è un sottoinsieme di
di sottoinsiemi di
è
.
e non un suo elemento. Quindi un evento, in quanto insieme, non appartiene
allo spazio campionario (e la scrittura
converso un evento elementare
. Quindi una famiglia
è priva di significato) ma è incluso nello spazio campionario. Di
, in quanto punto, appartiene allo spazio campionario e l'evento
, insieme
costituito da un singolo punto (e perciò detto singoletto), è incluso nello spazio campionario.
Se la cardinalità di è finita allora la -algebra può coincidere con l’insieme delle parti ma non è detto che sia
necessario prendere una famiglia di eventi così grande.
Ovviamente nulla vieta di prendere come spazio degli eventi proprio l’insieme delle parti. Questo perché nel caso di
cardinalità finita è sempre possibile prendere come
-algebra l’intero insieme delle parti senza rischiare di
incappare in eventi
ai quali non è possibile attribuire una probabilità
.
Se invece la cardinalità di
è infinita non è detto che sia possibile definire
. In tale caso
può darsi che scegliere l’insieme delle parti come sigma-algebra non sia una scelta felice: in virtù della terza
proprietà delle sigma-algebre, quando passiamo alla probabilità vengono coinvolte delle serie che non è detto
convergano.
In generale si cerca sempre di scegliere una sigma-algebra che sia piccola: più piccola è meno problemi crea.
Il fatto che sia piccola e non coincidente con l’intero insieme delle parti non vuol dire che alcuni eventi elementari
restino esclusi infatti, per definizione di sigma-algebra, possiamo dire che
. In altri
termini le sigma-algebre definite su
sono una copertura di
.
Spazio campionario
10
Tipi di spazio campionario
La scelta dello spazio campionario per un determinato fenomeno aleatorio deve in qualche modo equilibrare la
necessità di essere fedele alla realtà fisica esaminata con la convenienza matematica (vedi osservazioni).
In pratica, la maggior parte degli spazi campionari rientra nelle seguenti tipologie:
Finito
I più semplici esperimenti aleatori consistono nel lancio di una moneta o di un dado, o nell'estrazione di una pallina
da un'urna. In ogni caso lo spazio campionario sarà un insieme costituito da un numero finito di eventi elementari. In
genere, ma non necessariamente, essi saranno rappresentati dai primi n numeri interi:
piuttosto
che
.
Numerabile
Molti importanti modelli probabilistici, come ad esempio quello poissoniano utilizzato per contare il numero di
accadimenti che si verificano in un intervallo di tempo fissato, si basano su uno spazio campionario numerabile e
coincidente, quindi con tutto
o con .
Continuo
Solitamente il modello continuo per eccellenza è la retta reale, come nel caso degli errori di misura nelle
osservazioni scientifiche il cui studio sistematico è stato avviato da Karl Friedrich Gauss nel 1809. Altri modelli, utili
per rappresentare i tempi di vita di componenti elettronici, hanno come modello la semiretta reale positiva.
Vettoriale finito
Spesso un esperimento è costituito da una sequenza finita di altri esperimenti come, ad esempio, il lancio di un dado
ripetuto n volte. In tale caso, se
è lo spazio campionario del singolo lancio, lo
spazio
campionario
complessivo
sarà
dato
dal
prodotto
cartesiano
dei
singoli
spazi:
.
Lo spazio campionario del singolo esperimento potrà essere sia finito che numerabile che continuo.
Vettoriale numerabile
Come nel caso vettoriale finito con l'unica differenza che la sequenza dei singoli esperimenti non è finita ma
numerabile dunque:
.
Tale modello compare, ad esempio, nelle analisi di qualità dei pezzi uscenti da una linea di produzione con
o nella passeggiata aleatoria (random walk) con
.
Funzionale
In alcuni esperimenti aleatori della fisica, gli esiti dell'esperimento sono i percorsi o le traiettorie di una particella in
un certo intervallo di tempo. Quindi ogni esito, in questo caso, è una funzione. Tale modello emerge insistentemente
nei processi stocastici.
Spazio campionario
11
Esempi
Un foglio in pezzi
Prendiamo un qualsiasi foglio: nella sua interezza rappresenterà il nostro spazio campionario. Le singole particelle
del foglio corrisponderanno ai punti dello spazio campionario ovvero agli eventi elementari. Se ora strappiamo in
pezzi il foglio, ognuno dei pezzi rappresenterà un evento che, in quanto aggregato di particelle, sarà un sottoinsieme
del foglio originale e, in quanto pezzo, sarà un elemento dell'insieme dei pezzi del foglio (l'insieme delle parti).
Osserviamo che un foglio strappato in pezzi costituisce una partizione del foglio originale. I pezzi in cui abbiamo
strappato il foglio non esauriscono tutto l'insieme delle parti ma ne costituiscono solo una sua famiglia. Tale
famiglia può essere estesa ad una sigma-algebra aggiungendo ad essa anche tutte le possibili composizioni ottenibili
con le operazioni insiemistiche di unione numerabile, intersezione numerabile e complementazione. Ad esempio
dovremo aggiungere alla famiglia l'unione di tutti i pezzi (l'intero foglio). Accanto ad ogni pezzo della famiglia
dovremo aggiungere il suo complementare (ovvero l'unione di tutti gli altri pezzi). E via dicendo. Notiamo che
questo procedimento ci conduce ad una sigma-algebra ma non all'insieme delle parti. Per arrivare all'insieme delle
parti dovremmo ripetere il procedimento anche per tutti gli altri modi in cui possiamo strappare il foglio originale.
Lancio di un dado equilibrato
Consideriamo un esperimento che consiste nel lanciare un comune dado (un cubo le cui facce sono numerate da 1 a
6) su una superficie piana dotata di attrito e delimitata da pareti atte a contenere il movimento del dado (ovvero una
scatola!) e supponiamo che il dado sia bilanciato (ovvero che la sua distribuzione di massa sia uniforme e non
privilegi una faccia rispetto alle altre).
Gli esiti di tale esperimento sono misurabili. Infatti, spesa la sua energia, il dado si fermerà inesorabilmente
poggiando sulla superficie una delle sue facce e mostrando, quindi, all'esperimentatore la faccia opposta a quella di
appoggio.
Il numero impresso sulla faccia esposta potrà essere utilizzato per rappresentare l'esito dell'esperimento che,
complessivamente, avrà sei possibili esiti distinti (tanti quanti le facce del dado). Codificheremo tali esiti con i primi
sei numeri interi.
Allora gli eventi elementari saranno i primi sei numeri interi e lo spazio campionario associato a questo
esperimento sarà
che ha cardinalità
evidentemente finita.
Poiché ogni evento è un sottoinsieme dello spazio campionario ovvero un elemento dell'insieme delle parti di
sono
possibili eventi tra i quali, ovviamente, l'insieme vuoto, l'intero
coppie, i pari
, i sei singoletti, le
ci
possibili
e via dicendo.
La scelta della -algebra da usare dipende dagli obiettivi. Se, ad esempio, siamo interessati a calcolare la
probabilità che esca un numero pari, gli unici eventi di interesse saranno A="è uscito un pari" e il suo
complementare. La più piccola sigma-algebra contenente l'evento A sarà:
. Non è l'unica ma, tra
tutte le sigma algebre contenenti l'evento A, è la più piccola dunque quella che genera meno lavoro e meno problemi.
Spazio campionario
12
Sigma-algebra di Borel su
Questo esempio non è intuitivo ma è qui riportato perché celebre, perché riveste un ruolo fondamentale in gran parte
della teoria della probabilità e perché nonostante la sua semplicità (è sufficiente investigare su un numero infinito di
lanci di una moneta per incappare in una sigma-algebra di Borel) ha messo in crisi la teoria classica della probabilità
richiedendone la rivisitazione assiomatica di Kolmogorov.
Sia
l'intervallo reale unitario aperto a sinistra e chiuso a destra. Sia, inoltre
intervalli di
, della forma
con
la famiglia degli
.
Consideriamo, inoltre, tutte le unioni finite e disgiunte di tali intervalli:
.
Aggiungiamo infine anche l'insieme vuoto.
La famiglia
così ottenuta è nota come algebra di Borel. Nonostante tale famiglia sia assai numerosa, ancora non
abbiamo a che fare con una sigma-algebra. Ad esempio sono esclusi dalla famiglia i singoletti
che, in virtù
della proprietà 3', dovrebbero invece essere presenti in quanto ognuno è intersezione numerabile di insiemi della
famiglia:
A questo punto è facile immagine Emile Borel, colto da sensi di colpa per aver abbandonato il piano astratto e aver
tentato di costruire la sua sigma-algebra elemento per elemento, si rifugia in un buio sgabuzzino urlando da dietro la
porta: "la sigma-algebra
esiste e non è banale!" (ovvero non coincide con l'insieme delle parti di ).
Che
non coincida con
ma non a
lo ha già appurato Borel e noi abbiamo appena visto che i singoletti appartengono a
. Per scoprire un sottoinsieme di
non contenuto in
e quindi dare conforto all'ipotesi
del disperato Borel bisognerà attendere Giuseppe Vitali.
Costruzione di una sigma-algebra
Riprendiamo ancora l'esempio del lancio di un dado. Abbiamo già visto che se siamo interessati a valutare la
probabilità che esca pari dovremo considerare l'evento A={è uscito pari}. Ma A preso singolarmente non basta. Per
completare la nostra partizione basterà aggiungere ad A il suo complementare. Ora
è una partizione.
Qualcuno
potrebbe
ribattere:
ma
anche
è
una
partizione.
E
anche
lo è.
Certo. Ma la prima non ci serve a nulla perché non distingue tra pari e dispari mentre la seconda distingue troppo:
che ci importa sapere se il dispari uscito è 1 o 3 o 5 ?
è la migliore partizione rispetto al problema in esame.
Tra l'altro questo, come abbiamo già visto, è uno dei rarissimi casi in cui costruire la sigma-algebra non è reato (o
tentato suicidio).
Se, per qualche motivo, dobbiamo esaminare tutte e sei le possibili configurazioni allora la partizione che dovremo
costruire sarà la più fine possibile:
. Una volta assegnato questo spazio
campionario, per generare la sua sigma-algebra si considerano tutte le possibili unioni tra i suoi elementi e i loro
complementari (ragionamento valido per ogni insieme finito). Ad esempio quindi la sigma-algebra conterrà:
Il grosso vantaggio nel lavorare solo con la giusta partizione diventa chiaro in fase di assegnazione di una misura di
probabilità.
Spazio campionario
13
Bibliografia
• P. Halmos (1950): Measure theory, D. van Nostrand and Co.
• P. Billingsley (1995): Probability and Measure, John Wiley & Sons
• A. F. Karr (1993): Probability, Springer-Verlag
Voci correlate
• Misura di probabilità
• Spazio di probabilità
• Variabile casuale
Teoria della probabilità
La teoria della probabilità è lo studio matematico della probabilità.
I matematici si riferiscono alle probabilità come a numeri nell'intervallo da 0 a 1, assegnati ad "eventi" la cui
ricorrenza è casuale. Le probabilità
sono assegnate ad eventi
secondo gli assiomi della probabilità.
La probabilità che un evento
dato
avvenga dato il verificarsi noto di un evento
; il suo valore numerico è
condizionale di
dato
(finché
è la probabilità condizionata di
è diverso da zero). Se la probabilità
è la stessa della probabilità ("non condizionale") di
eventi indipendenti. Che questa relazione tra
and
che è la stessa cosa che dire
, allora
ed
sono detti
sia simmetrica, può essere visto più chiaramente osservando
.
Due concetti cruciali nella teoria della probabilità sono quelli di variabile casuale e di distribuzione probabilistica di
una variabile casuale. In altri termini descrivere in termini probabilistici o statistici una fenomeno aleatorio nel
tempo, caratterizzabile dunque da una variabile aleatoria, vuol dire descriverlo in termini di densità di distribuzione
di probabilità e dei suoi parametri di media o valore atteso e varianza.
Una visione astratta della probabilità
I matematici ritengono che la teoria della probabilità sia lo studio di uno spazio astratto di probabilità (su cui sono ad
esempio definite le variabili casuali o aleatorie), un approccio introdotto da Kolmogorov nel 1930 (anche detto
approccio assiomatico). Uno spazio di probabilità è una terna
, dove:
•
è un insieme non vuoto, a volte chiamato spazio campionario, ognuno dei cui membri si può pensare come un
potenziale risultato di un esperimento casuale. Per esempio, se 100 votanti devono essere estratti a caso tra tutti i
votanti di un insieme e ad essi viene chiesto per chi voteranno, allora l'insieme di tutte le sequenze dei 100 votanti
sarebbe lo spazio campionario .
•
è una sigma-algebra di insiemi di
i cui elementi sono chiamati eventi. Per esempio, l'insieme di tutte le
sequenze di 100 elettori di cui almeno 60 voteranno per un certo candidato viene identitificato con l'"evento" che
almeno 60 dei 100 elettori estratti voteranno in quel dato modo. Dire che F è una sigma-algebra implica
necessariamente che il complemento di ogni evento è un evento, e l'unione di ogni sequenza (finita o infinita
numerabile) di eventi è un evento.
• P è una misura della probabilità in F, cioè una misura tale per cui P(Ω) = 1.
È importante notare che P è definita in F e non in Ω. Con Ω numerabile possiamo definire F := insieme di
potenza(Ω) che è banalmente una sigma-algebra ed il più grande che si possa creare usando Ω. In uno spazio discreto
possiamo quindi omettere F e scrivere solo (Ω, P) per definirlo.
Teoria della probabilità
Se d'altra parte Ω è non numerabile e si usa F = insieme di potenza(Ω) cadiamo nella difficoltà di definire la nostra
misura di probabilità P perché F è 'immenso'. Quindi dobbiamo usare una sigma-algebra F più piccola (per esempio
l'algebra di Borel di Ω). Si definisce questo tipo di spazio probabilistico uno spazio probabilistico continuo e ci porta
alcuni problemi nella teoria della misura quando proviamo a definire P.
Una variabile casuale è una funzione misurabile da Ω nei reali. Per esempio, il numero di elettori che voteranno per
un dato candidato nel campione di 100 dell'esempio precedente è una variabile casuale.
Se X è una variabile casuale, l'insieme { ω in Ω : X(ω) ≥ 60 } è un "evento", e la notazione P(X ≥ 60) è
un'abbreviazione di P({ ω in Ω : X(ω) ≥ 60 }).
Per una alternativa algebrica all'approccio di Kolmogorov, vedi algebra delle variabili casuali.
Filosofia delle applicazioni della probabilità
Alcuni statistici assegneranno delle probabilità solo agli eventi che si pensano essere casuali, in base alle loro
frequenze relative, o a sottoinsiemi di popolazione in relazione al tutto; questi sono frequentisti. Altri assegnano
probabilità a proposizioni incerte o secondo gradi soggettivi di confidenza nella loro verità, o a livelli logicamente
giustificabili di confidenza nella loro verità. Tali persone sono Bayesiani. Un Bayesiano può assegnare una
probabilità alla proposizione che c'era vita su Marte un miliardo di anni fa, dal momento che questo è incerto; un
frequentista non assegnerebbe una probabilità a tale proposizione, poiché non si tratta di un evento casuale che abbia
una frequenza relativa a lungo termine.
Voci correlate
•
•
•
•
•
•
•
•
•
Probabilità
Misura di probabilità
Funzione di probabilità
Valore atteso
Evento
Assiomi della probabilità
Variabile casuale, distribuzione di probabilità
Indipendenza statistica
Criterio di Kelly
Bibliografia
•
•
•
•
•
•
Billingsley Patrick, Probability and measure, 3rd ed., John Wiley & Sons, New York 1995, ISBN 0-471-00710-2.
Jeffreys Harold (1939) The Theory of Probability
Kolmogorov Andrey N. (1933) Grundbegriffe der Wahrscheinlichkeitrechnung.
Laplace, Pierre S. (1812) Theorie Analytique des Probabilités.
Nelson Edward (1987) Radically Elementary Probability Theory
Yuri A. Rozanov (1995) Probability Theory, Random Processes and Mathematical statistics, Kluwer, ISBN
0-7923-3764-6
14
Teoria della probabilità
15
Altri progetti
•
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/
Category:Probability theory
Indipendenza stocastica
Nell'ambito del calcolo delle probabilità, l'indipendenza stocastica di due eventi A e B si ha quando il verificarsi di
uno non modifica la probabilità di verificarsi dell'altro, ovvero quando la probabilità condizionata P(A | B) oppure
P(B | A) è pari rispettivamente a P(A) e P(B)
P(A | B) = P(A)
P(B | A) = P(B)
queste due condizioni si possono sintetizzare con la formula
P(A ∩ B) = P(A) · P(B).
In altre parole, dire che due eventi sono indipendenti tra loro significa dire che il fatto di sapere che uno di essi si è
verificato non modifica la valutazione di probabilità sul secondo. Per esempio, il fatto di ottenere "1" quando viene
lanciato un dado ed il fatto di ottenere ancora un "1" la seconda volta che il dado viene lanciato, sono indipendenti.
Analogamente, quando si afferma che due variabili casuali X e Y definite sullo stesso spazio campionario H sono
indipendenti si afferma che conoscere qualcosa riguardo al valore di una di esse non apporta alcuna informazione
circa il valore dell'altra. Per esempio, il numero che appare sulla faccia superiore di un dado la prima volta che viene
lanciato e il numero che appare la seconda volta sono indipendenti. Formalmente, questo si verifica quando per ogni
coppia di eventi B, B' risulta
P(X ∈ B ∩ Y ∈ B' ) = P(X ∈ B) · P (Y ∈ B' )
Equivalentemente ciò si verifica se, detta F la funzione di ripartizione della variabile congiunta (X,Y) e fX, fY le due
funzioni di ripartizione marginali, allora per ogni x,y vale che
F(x,y)=fX(x) · fY(y)
Condizioni analoghe si trovano per la funzione di densità di probabilità e la funzione di probabilità, se X è
rispettivamente una variabile casuale continua o una variabile casuale discreta:
f(x,y)=fX(x)· fY(y)
e
p(x,y)=pX(x)· pY(y)
Generalizzazioni
Nell'ambito della teoria della probabilità, la nozione di indipendenza stocastica può essere generalizzata ampiamente.
Sia
uno spazio di probabilità, e sia
una famiglia arbitraria (finita o non finita) di σ-algebre
contenute in
:
. Esse si dicono indipendenti rispetto a
di
, e per ogni sottoinsieme
se, per ogni sottoinsieme finito
, accade:
.
Questa nozione si riduce alla precedente nel caso in cui la famiglia di σ-algebre sia formata da due soli elementi
e
, dove, dato un insieme misurabile
,
è la σ-algebra da esso generata:
.
Questa estensione, ampiamente usata nella teoria dei processi stocastici, trova la sua motivazione nel fatto che
l'indipendenza stocastica di una famiglia di σ-algebre, non è in generale equivalente all'indipendenza dei suoi
Indipendenza stocastica
16
elementi a due a due. Ad esempio, dati tre insiemi
, sapendo che
e
,
e
,
e
sono indipendenti, non se ne
che:
.
Voci correlate
•
•
•
•
•
probabilità
probabilità condizionata
Mark Kac
Hugo Steinhaus
Paradosso del compleanno
Teorema della probabilità composta
Il teorema della probabilità composta deriva dal concetto di probabilità condizionata
per cui la probabilità che due eventi si verifichino contemporaneamente è pari alla probabilità di uno dei due eventi
moltiplicato con la probabilità dell'altro evento condizionato al verificarsi del primo.
Nel caso di indipendenza stocastica si ottiene che la probabilità congiunta è pari al prodotto delle probabilità:
A volte la probabilità congiunta viene anche indicata con
Voci correlate
•
•
•
•
probabilità
probabilità condizionata
teorema della probabilità assoluta
teorema di Bayes
Teorema della probabilità assoluta
17
Teorema della probabilità assoluta
In teoria della probabilità il teorema della probabilità assoluta afferma che se
partizione dello spazio campionario di tutti gli eventi possibili
e
è un qualsiasi evento (dipendente dagli eventi
(ossia
formano una
e
), allora:
Dimostrazione
La dimostrazione di questo risultato segue immediatamente dal fatto che:
dunque, per l'additività della probabilità, essendo gli eventi a due a due incompatibili:
Ma poiché, in base alla definizione di probabilità condizionata:
come volevasi dimostrare.
Voci correlate
• teorema della probabilità composta
• teorema di Bayes
, si ha:
)
Probabilità condizionata
18
Probabilità condizionata
In teoria della probabilità la probabilità condizionata di un evento A rispetto a un evento B è la probabilità che si
verifichi A, sapendo che B è verificato. Questa probabilità, indicata
o
, esprime una "correzione"
delle aspettative per A, dettata dall'osservazione di B. (Ha senso solo se B ha una probabilità non nulla di verificarsi.)
Esempio
Per esempio, la probabilità di ottenere "4" con il lancio di un comune dado (evento A) ha probabilità P(A)=1/6 di
verificarsi. Sapendo però che il risultato del lancio è un numero tra "4", "5" e "6" (evento B), la probabilità di A
diventa
.
Definizione
La probabilità di A condizionata da B è
,
dove
è la probabilità congiunta dei due eventi, ovvero la probabilità che si verifichino entrambi.
In termini più rigorosi, dato uno spazio misurabile
misurato
di misura P, ogni evento B eredita una struttura di spazio
, restringendo gli insiemi misurabili a quelli contenuti in B, ed induce una nuova misura
su
, con
) e B non è trascurabile (
probabilizzato
. Se
), allora riscalando
è uno spazio probabilizzato (
a
si ottiene lo spazio
delle probabilità condizionate da B.
Proprietà
La formula della probabilità condizionata permette di descrivere la probabilità congiunta come
Ovvero, la probabilità che si verifichino sia A che B è pari alla probabilità che si verifichi B moltiplicata per la
probabilità che si verifichi A supponendo che B sia verificato.
Due eventi A e B sono indipendenti quando vale una delle tre equazioni equivalenti
•
•
•
;
;
.
Casi particolari
Se A e B sono eventi disgiunti, cioè se
, le loro probabilità condizionate sono nulle: sapendo che uno
dei due eventi si è verificato, è impossibile che si sia verificato anche l'altro.
Se l'evento A implica l'evento B, cioè se
•
•
(A implica B);
(B è necessario per A).
, allora la loro intersezione è A, per cui
e:
Probabilità condizionata
19
Nel caso di una misura di probabilità uniforme su uno spazio Ω finito, questa formula per P(A|B) esprime la
definizione classica di probabilità come "casi favorevoli (A) su casi possibili (B)".
Invece, per P(B|A) otteniamo il valore 1 che, per un numero finito di valori lo stesso Bayes interpretò in senso lato
come la certezza che il tutto. sia condizionato dalla parte.
Ulteriori definizioni
La speranza condizionata
di una variabile aleatoria X ad un evento B è la speranza di X calcolata sulle
probabilità
(condizionate da B).
La probabilità di un evento A può essere condizionata da una variabile aleatoria discreta X, originando una nuova
variabile aleatoria,
, che per X=x assume il valore
.
Applicazioni
Il teorema di Bayes esprime l'uguaglianza simmetrica
del teorema della
probabilità composta come
.
Questo teorema è alla base dell'inferenza bayesiana in statistica, dove P è detta "probabilità a priori di B" e PB
"probabilità a posteriori di 'B".
Paradossi
Molti paradossi sono legati alla probabilità condizionata e derivano sia da un'errata formulazione del problema sia
dalla confusione di P(A|B) con P(A) o con P(B|A).
Esempi particolari sono il paradosso delle due buste, il paradosso dei due bambini, il problema di Monty Hall e il
paradosso di Simpson.
Voci correlate
•
•
•
•
•
•
Probabilità congiunta
Indipendenza (probabilità)
Inferenza bayesiana
Teorema di Bayes
Teorema della probabilità composta
Valore atteso condizionato
Bibliografia
• Giuseppe Zwirner, L. Scaglianti, Itinerari nella matematica vol.1, Padova, CEDAM, 1989, ISBN 88-1316794-6
Teorema di Bayes
20
Teorema di Bayes
Il teorema di Bayes (conosciuto anche come formula di Bayes o teorema della probabilità delle cause), proposto
da Thomas Bayes, deriva da due teoremi fondamentali delle probabilità: il teorema della probabilità composta e il
teorema della probabilità assoluta. Viene impiegato per calcolare la probabilità di una causa che ha scatenato l'evento
verificato. Per esempio si può calcolare la probabilità che una certa persona soffra della malattia per cui ha eseguito
il test diagnostico (nel caso in cui questo sia risultato negativo) o viceversa non sia affetta da tale malattia (nel caso
in cui il test sia risultato positivo), conoscendo la frequenza con cui si presenta la malattia e la percentuale di
efficacia del test diagnostico. Formalmente il teorema di Bayes è valido in tutte le interpretazioni della probabilità. In
ogni caso, l'importanza di questo teorema per la statistica è tale che la divisione tra le due scuole (statistica bayesiana
e statistica frequentista) nasce dall'interpretazione che si dà al teorema stesso.
Enunciato del teorema di Bayes
Considerando un insieme di alternative
(partizione dello spazio degli eventi) si trova la seguente
espressione per la probabilità condizionata:
Dove:
• P(A) è la probabilità a priori o probabilità marginale di A. "A priori" significa che non tiene conto di nessuna
informazione riguardo E.
• P(A|E) è la probabilità condizionata di A, noto E. Viene anche chiamata probabilità a posteriori, visto che è
derivata o dipende dallo specifico valore di E.
• P(E|A) è la probabilità condizionata di E, noto A.
• P(E) è la probabilità a priori di E, e funge da costante di normalizzazione.
Intuitivamente, il teorema descrive il modo in cui le opinioni nell'osservare A siano arricchite dall'aver osservato
l'evento E.
Un esempio
Si consideri una scuola che ha il 60% di studenti maschi e il 40% di studentesse femmine.
Le studentesse indossano in egual numero gonne o pantaloni; gli studenti indossano tutti quanti i pantaloni. Un
osservatore, da lontano, nota un generico studente coi pantaloni. Qual è la probabilità che quello studente sia una
femmina?
Il problema può essere risolto con il teorema di Bayes, ponendo l'evento A che lo studente osservato sia femmina, e
l'evento B che lo studente osservato indossi i pantaloni. Per calcolare P(A|B), dovremo sapere:
• P(A), ovvero la probabilità che lo studente sia femmina senza nessun'altra informazione. Dato che l'osservatore
vede uno studente a caso, ciò significa che tutti gli studenti hanno la stessa probabilità di essere osservati.
Essendo le studentesse il 40% del totale, la probabilità risulterà 2/5.
• P(A'), ovvero la probabilità che lo studente sia maschio senza nessun'altra informazione. Essendo A' l'evento
complementare di A, risulta 3/5.
• P(B|A), ovvero la probabilità che uno studente indossi i pantaloni, noto che lo studente è femmina. Poiché
indossano gonne e pantaloni in egual numero, la probabilità sarà di 1/2.
• P(B|A'), ovvero la probabilità che uno studente indossi i pantaloni, noto che lo studente è maschio. Tutti gli
studenti maschi indossano i pantaloni, quindi vale 1.
Teorema di Bayes
21
• P(B), ovvero la probabilità che uno studente qualsiasi (maschio o femmina) indossi i pantaloni. Poiché il numero
di coloro che indossa i pantaloni è di 80 (60 maschi + 20 femmine) su 100 studenti fra maschi e femmine, la
probabilità P(B) è di 80/100 = 4/5.
Ciò detto, possiamo applicare il teorema:
C'è pertanto 1/4 di probabilità che lo studente sia femmina cioè 25%.[1]
Derivazione del teorema
Il problema deriva dalla definizione di probabilità condizionata. La
probabilità di un evento A, noto un evento B, risulta:
In modo analogo, la probabilità di un evento B noto un evento A:
Pertanto:
Sostituendo nella prima uguaglianza, si trova il teorema di Bayes:
Teorema di Bayes.
Applicazioni
Applicazione al Problema di Monty Hall
Si supponga di partecipare a un gioco a premi, in cui si può scegliere fra tre porte: dietro una di esse c'è
un'automobile, dietro le altre, due capre. Si sceglie una porta, diciamo la numero 1, e il conduttore del gioco a premi,
che sa cosa si nasconde dietro ciascuna porta, ne apre un'altra, diciamo la 3, rivelando una capra. Quindi domanda:
«Vorresti scegliere la numero 2? «Ti conviene cambiare la tua scelta originale?»
Si potrebbe pensare che, con due porte chiuse, si abbia una probabilità 50:50 per ognuna, e che quindi non ci sia
motivo di cambiare porta. Non è questo il caso. Chiamiamo l'evento che la macchina si trovi dietro una certa porta
rispettivamente A1, A2, e A3.
All'inizio, è ovvio che:
Come detto prima, la porta scelta è la numero 1. Chiameremo allora B l'evento "il presentatore apre la porta 3". La
sua probabilità a priori sarà del 50%, e quindi
. Ora:
• Nel caso in cui la macchina sia dietro la porta 1, il presentatore sarà libero di scegliere la porta 2 o 3 casualmente.
Pertanto,
• Nel caso in cui la macchina sia dietro la porta 2, il presentatore sarà obbligato ad aprire la porta 3. Pertanto
• Nel caso in cui la macchina sia dietro la porta 3, il presentatore sarà obbligato ad aprire la porta 2. Pertanto
Teorema di Bayes
Da cui:
Da ciò è evidente che si deve sempre cambiare con la porta 2.
Filtri bayesiani
I filtri bayesiani sono uno strumento utilizzato per combattere lo spam che deve il suo funzionamento proprio al
teorema di Bayes. Un filtro bayesiano fa uso di un classificatore bayesiano per riconoscere se una certa sequenza di
simboli (come una parola) si presenta spesso nei messaggi di spam, quindi applica l'inferenza bayesiana per calcolare
la probabilità che un determinato messaggio sia spam.
Cenni storici
Il teorema si chiama così in onore del reverendo Thomas Bayes (1702–1761), il quale studiò come calcolare una
distribuzione per il parametro di una distribuzione binomiale. Un suo amico, Richard Price, pubblicò il lavoro nel
1763, dopo la morte di Bayes, nell'articolo Essay Towards Solving a Problem in the Doctrine of Chances. Alcuni
anni dopo (nel 1774) viene formulato da Pierre Simon Laplace che probabilmente non era a conoscenza del lavoro di
Bayes.
Una ricerca da parte di un professore di statistica (Stigler, 1982) sembrerebbe suggerire che il teorema di Bayes sia
stato scoperto da Nicholas Saunderson anni prima di Bayes.
Note
[1] La verifica dell'esattezza del risultato, in questo semplice esempio, è immediata se si ricorre alla semplice definizione di "probabilità di un
evento" = "numero dei casi favorevoli all'evento/numero dei casi possibili". Il numero dei casi possibili, indossando lo studente (o studentessa)
osservato i pantaloni, è di 80 (60 maschi + 20 femmine) mentre quello dei casi favorevoli (cioè le femmine che indossano pantaloni) è 20,
quindi la probabilità che si tratti di una femmina è 20/80 cioè 1/4 c.v.d.
Bibliografia
Versioni saggistiche
• Thomas Bayes (1763), An Essay towards solving a Problem in the Doctrine of Chances. By the late Rev. Mr.
Bayes, F. R. S. communicated by Mr. Price, in a letter to John Canton, A. M. F. R. S., Philosophical Transactions,
Giving Some Account of the Present Undertakings, Studies and Labours of the Ingenious in Many Considerable
Parts of the World, 53:370–418.
• Thomas Bayes (1763/1958), Studies in the History of Probability and Statistics: IX. Thomas Bayes' Essay
Towards Solving a Problem in the Doctrine of Chances, Biometrika 45:296–315. (Bayes' essay in modernized
notation).
22
Teorema di Bayes
Commenti
• G. A. Barnard, Studies in the History of Probability and Statistics: IX. Thomas Bayes' Essay Towards Solving a
Problem in the Doctrine of Chances, Biometrika 45:293–295, 1958
• Daniel Covarrubias, An Essay Towards Solving a Problem in the Doctrine of Chances (http://www.stat.rice.
edu/~blairc/seminar/Files/danTalk.pdf).
• Stephen M. Stigler, Thomas Bayes' Bayesian Inference, Journal of the Royal Statistical Society, Series A,
145:250–258, 1982
• Isaac Todhunter, A History of the Mathematical Theory of Probability from the time of Pascal to that of Laplace,
Macmillan, 1865. Ristampa 1949, 1956 by Chelsea e 2001 by Thoemmes.
Voci correlate
•
•
•
•
•
Probabilità
Probabilità condizionata
Teorema della probabilità composta
Teorema della probabilità assoluta
Paradosso dei corvi
•
•
•
•
•
•
•
Problema di Monty Hall
Paradosso delle tre carte
Paradosso dei due bambini
Inferenza bayesiana
Thomas Bayes
Pierre Simon Laplace
Diagnosi
23
24
Rapporti agili
Distribuzione discreta
In teoria delle probabilità una distribuzione discreta è una distribuzione di probabilità definita su un insieme
discreto S. In particolare questo insieme può essere finito oppure numerabile (i suoi elementi possono essere elencati
tramite i numeri naturali:
).
Una variabile aleatoria (o stocastica, o casuale dall'inglese random) è discreta se segue una distribuzione di
probabilità discreta.
Se l'insieme S è contenuto nei numeri reali, si può definire la funzione di ripartizione della distribuzione, che assume
valori su S; se viene rappresentata su tutti numeri reali allora acquista la forma di una funzione a gradini, costante
sugli intervalli semiaperti
.
Particolari distribuzioni discrete di probabilità sono:
•
•
•
•
•
•
•
•
•
•
•
•
la distribuzione discreta uniforme,
la distribuzione binomiale,
la distribuzione di Bernoulli,
la distribuzione di Poisson (o degli eventi rari),
la distribuzione geometrica,
la distribuzione di Pascal,
la distribuzione ipergeometrica,
la distribuzione di Wilcoxon,
la distribuzione di Benford (o della prima cifra),
la distribuzione del test di Kolmogorov-Smirnov,
la distribuzione di Spearman,
la distribuzione di Rademacher.
Un caso particolare è la distribuzione degenere su un solo elemento:
e
.
Anche le distribuzioni su più dimensioni (multivariate) possono essere discrete, come la distribuzione multinomiale.
Tabella delle distribuzioni discrete comuni
La tabella seguente riassume le proprietà delle distribuzioni discrete più comuni, si intende
e
Distribuzione discreta
Distribuzione
25
Parametri
Supporto
Funzione di densità
Valore atteso
Bernoulliana
Uniforme
Geometrica
Binomiale
di Pascal
Ipergeometrica
Voci correlate
• Distribuzione di probabilità
• Funzione di ripartizione
Distribuzione discreta uniforme
Distribuzione discreta uniforme su elementi in progressione aritmetica
Funzione di distribuzione discreta
Varianza
Distribuzione discreta uniforme
26
Funzione di ripartizione
Parametri
estremi della
progressione
elementi nella progressione
Supporto
Funzione di densità
Funzione di ripartizione
su
per
Valore atteso
Mediana
Moda
Varianza
Skewness
Curtosi
Entropia
Funz. Gen. dei Momenti
Funz. Caratteristica
In teoria delle probabilità una distribuzione discreta uniforme è una distribuzione di probabilità discreta che è
uniforme su un insieme, ovvero che attribuisce la stessa probabilità ad ogni elemento dell'insieme discreto S su cui è
definita (in particolare l'insieme dev'essere finito).
Un esempio di distribuzione discreta uniforme è fornito dal lancio di un dado equilibrato: ognuno dei valori 1, 2, 3,
4, 5 e 6 ha eguale probabilità 1/6 di verificarsi.
Questa distribuzione di probabilità è quella che fornisce la classica definizione di probabilità "casi favorevoli su casi
possibili": la probabilità di un evento
è data dal rapporto tra le cardinalità dei due insiemi,
Distribuzione discreta uniforme
27
Definizione
La distribuzione discreta uniforme su un insieme finito S è la distribuzione di probabilità
che attribuisce a
tutti gli elementi di S la stessa probabilità p di verificarsi.
In particolare, dalla relazione
seguono
per ogni elemento
,
per ogni sottoinsieme
.
Progressione aritmetica
Spesso viene considerata la distribuzione discreta uniforme su un insieme S i cui elementi sono in progressione
aritmetica, ovvero del tipo
.
In questo caso l'insieme S può essere descritto come un insieme di n elementi in progressione aritmetica, da a a b,
con elementi della forma
,
con
e
.
In questo modo la distribuzione discreta uniforme diventa una sorta di approssimazione della distribuzione continua
uniforme sull'intervallo
Caratteristiche
La distribuzione
è simmetrica rispetto al punto medio
aleatoria U con questa distribuzione ha quindi speranza
del segmento
. Una variabile
e indice di asimmetria
Inoltre ha
• varianza
,
• curtosi
,
• funzione generatrice dei momenti
• entropia
(il massimo valore possibile per una distribuzione su n elementi).
.
Distribuzione discreta uniforme
28
Altre distribuzioni
Il parallelo della distribuzione discreta uniforme tra le distribuzioni di probabilità continue è la distribuzione
continua uniforme: una distribuzione definita su un insieme continuo S, che attribuisce la stessa probabilità a due
intervalli della stessa lunghezza, contenuti in S, ovvero la cui densità di probabilità assume un valore costante su S.
Distribuzione su due valori
La distribuzione di Bernoulli
con
è una distribuzione discreta uniforme: i due valori 0 e 1 hanno
entrambi probabilità
.
Ogni altra distribuzione discreta uniforme su due valori a e b può essere espressa tramite una variabile aleatoria X
con distribuzione di Bernoulli
, considerando la variabile aleatoria
.
La distribuzione discreta uniforme sui due valori 1 e -1 è anche detta distribuzione di Rademacher, dal matematico
tedesco Hans Rademacher; al pari di altre distribuzioni su due valori, viene utilizzata nel metodo bootstrap per il
ricampionamento dei dati.
Voci correlate
•
•
•
•
Distribuzione di probabilità
Distribuzione discreta
Distribuzione continua uniforme
Progressione aritmetica
Collegamenti esterni
(EN) Eric W. Weisstein, Distribuzione discreta uniforme [1] su MathWorld.
Note
[1] http:/ / mathworld. wolfram. com/ DiscreteUniformDistribution. html
Distribuzione di Bernoulli
29
Distribuzione di Bernoulli
Distribuzione di Bernoulli
Funzione di distribuzione discreta
Funzione di ripartizione
Parametri
Supporto
Funzione di densità
Funzione di ripartizione
Valore atteso
Mediana
Moda
Varianza
Skewness
Curtosi
Entropia
Funz. Gen. dei Momenti
Funz. Caratteristica
In teoria delle probabilità la distribuzione di Bernoulli (o bernoulliana) è una distribuzione di probabilità su due
soli valori, 0 e 1, detti anche fallimento e successo. Prende il nome dallo scienziato svizzero Jakob Bernoulli
(1654-1705).
Definizione
La distribuzione di Bernoulli
di parametro
è
Altre leggi
Un processo di Bernoulli è una serie di variabili aleatorie indipendenti Xi di uguale distribuzione di Bernoulli B(p),
dette prove di Bernoulli.
La distribuzione binomiale descrive il numero di successi in n prove, ovvero la variabile aleatoria
.
La distribuzione geometrica e più in generale la distribuzione di Pascal descrivono il tempo del primo e del k-esimo
successo, ovvero le variabili aleatorie
e
per cui
Distribuzione di Bernoulli
30
Voci correlate
•
•
•
•
•
Distribuzione binomiale
Distribuzione geometrica
Distribuzione di Pascal
Distribuzione di probabilità
Processo di Bernoulli
Processo di Bernoulli
In teoria delle probabilità un processo di Bernoulli è un particolare processo aleatorio discreto, ovvero una famiglia
numerabile (X1, X2, ...) di variabili aleatorie indipendenti aventi la medesima legge di Bernoulli B(p).
Un processo di Bernoulli può essere considerato come una sequenza infinita di lanci di una moneta (non truccata).
Ogni singolo lancio è detto prova di Bernoulli.
In particolare, essendo le variabili indipendenti, vale la mancanza di memoria: la probabilità di una prova di
Bernoulli non è influenzata dal risultato delle precedenti (che quindi non possono fornire alcuna informazione sulla
nuova prova).
Variabili aleatorie
Ogni singola variabile aleatoria Xi può fornire due soli risultati: il successo (1) o il fallimento (0), con rispettive
probabilità p e q=1-p:
Il numero di successi dopo n prove è dato dalla variabile aleatoria
,
che segue la legge binomiale B(p,n), con probabilità
pari al numero di sequenze di k successi e n-k fallimenti, moltiplicato per la probabilità che una qualunque di queste
si verifichi.
Il numero di lanci necessari per ottenere un successo è dato da una variabile aleatoria N che segue la legge
geometrica di rapporto q:
.
Più in generale, il numero di lanci necessari per ottenere k successi è dato da una variabile aleatoria Nk di legge
;
in particolare, il numero di fallimenti è dato dalla variabile aleatoria Pk = Nk-n, di legge di Pascal (o binomiale
negativa) P(p,k)
.
Processo di Bernoulli
31
Applicazioni
In statistica un processo di Bernoulli (a tempo finito) viene utilizzato come modello per il campione di una
popolazione della quale si vuole determinare la proporzione p che verifica una certa proprietà.
Ogni processo di Bernoulli (con p qualunque) può venire utilizzato per originare, tramite l'estrazione di Von
Neumann, un nuovo processo di Bernoulli le cui prove seguono la legge B(1/2). Questo metodo è particolarmente
utilizzato nella teoria della complessità computazionale e prevede di raggruppare le originali prove di Bernoulli a
coppie successive; se i due elementi sono diversi si prende il valore del primo, mentre se sono uguali la coppia viene
scartata, come ad esempio:
11 10 11 01 01 01 00 11 01 01 01 01 01 10 10 11 00 10 10 10 11 01 01 00 10 10
1
0
0
0
0
0
0
0
0
1
1
1
1
1
0
0
1
1
Questo metodo sfrutta l'uguaglianza delle probabilità
;
e siccome 2pq è al più 1/2, la lunghezza della stringa finale risulta mediamente essere lunga non più di un quarto
della stinga iniziale.
Funzione di Bernoulli
Un processo di Bernoulli può essere interpretato come una misura sullo spazio di Morse delle successioni di 0 e 1, o
sull'intervallo [0,1] dei numeri reali in base binaria (la successione è la loro espressione decimale). In particolare, per
p=1/2 si ottiene una misura uniforme.
Poiché ogni prova ha uno o due possibili risultati, una sequenza di tentativi può essere rappresentata dalle cifre
binarie di un numero reale. Quado la probabilità p = 1/2, tutte le possibili distribuzioni sono ugualmente verosimili, ,
e quindi la misura della σ-algebra del processo di Bernoulli è equivalente alla misura uniforme nell'intervallo
unitario: in altre parole, i numeri reali sono uniformemente distribuiti sull'intervallo unitario.
L'operatore
di
shift
Bernoulli, (
che
mangia
la prima cifra, mandando ogni cifra nella precedente (
) equivale quindi alla moltiplicazione per 2 modulo 1, o funzione di
, dove {2α} è la parte frazionaria di 2α).
La mappa di Bernoulli è un modello esattamente risolubile di caos deterministico. L'operatore di trasferimento, o
operatore di Rouelle, di quest'applicazione è risolubile: i suoi autovalori sono potenze di 1/2 e le sue autofunzioni
sono i polinomi di Bernoulli.
Generalizzazioni
La generalizzazione del processo di Bernoulli nel caso multinomiale (più di due possibili risultati) è chiamata
schema di Bernoulli.
Bibliografia
• Carl W. Helstrom, Probability and Stochastic Processes for Engineers, (1984) Macmillan Publishing Company,
New York ISBN 0-02-353560-1.
• Dimitri P. Bertsekas and John N. Tsitsiklis, Introduction to Probability, (2002) Athena Scientific, Massachusetts
ISBN 1-886529-40-X
• Pierre Gaspard, "r-adic one-dimensional maps and the Euler summation formula", Journal of Physics A, 25
(letter) L483-L485 (1992). (Describes the eigenfunctions of the transfer operator for the Bernoulli map)
Processo di Bernoulli
32
• Dean J. Driebe, Fully Chaotic Maps and Broken Time Symmetry, (1999) Kluwer Academic Publishers, Dordrecht
Netherlands ISBN 0-7923-5564-4 (Chapters 2, 3 and 4 review the Ruelle resonances and subdynamics formalism
for solving the Bernoulli map).
Voci correlate
•
•
•
•
•
•
Processo aleatorio
Variabile casuale di Bernoulli
Variabile aleatoria binomiale
Variabile casuale geometrica
Variabili indipendenti
processo di Levy
Distribuzione binomiale
Distribuzione binomiale
Funzione di distribuzione discreta
Funzione di ripartizione
Parametri
Supporto
Distribuzione binomiale
33
Funzione di densità
Funzione di ripartizione
(funzione Beta incompleta regolarizzata)
Valore atteso
Mediana tra
e
(non precisa)
Moda
se
Varianza
Skewness
Curtosi
Entropia
Funz. Gen. dei Momenti
Funz. Caratteristica
In teoria della probabilità la distribuzione binomiale è una distribuzione di probabilità discreta che descrive il
numero di successi in un processo di Bernoulli, ovvero la variabile aleatoria
che
somma n variabili aleatorie indipendenti di uguale distribuzione di Bernoulli B(p).
Esempi di casi di distribuzione binomiale sono i risultati di una serie di lanci di una stessa moneta o di una serie di
estrazioni da un'urna (con reintroduzione), ognuna delle quali può fornire due soli risultati: il successo con
probabilità p e il fallimento con probabilità q=1-p.
Definizione
La distribuzione binomiale
•
•
è caratterizzata da due parametri:
: la probabilità di successo della singola prova di Bernoulli Xi (0 < p < 1).
: il numero di prove effettuate.
Per semplicità di notazione viene solitamente utilizzato anche il parametro
, che esprime la probabilità
di fallimento per una singola prova.
La distribuzione di probabilità è:
cioè ogni successione con k successi e n-k insuccessi ha probabilità
, mentre il numero di queste
successioni, pari al numero di modi (o combinazioni) in cui possono essere disposti i k successi negli n tentativi, è
dato dal coefficiente binomiale
.
La formula del binomio di Newton mostra come la somma di tutte le probabilità nella distribuzione sia uguale ad 1:
Distribuzione binomiale
34
Esempio
Per calcolare la probabilità di ottenere con 5 lanci di un dado (equilibrato a 6 facce) esattamente 3 volte "4", basta
considerare i lanci come un processo di Bernoulli.
Ogni singola prova ha probabilità p=1/6 di ottenere "4" (successo) e probabilità q=5/6 di non ottenerlo (insuccesso).
Il numero di successi con 5 prove è allora descritto da una variabile aleatoria S5 di legge B(5,1/6).
La probabilità di ottenere esattamente 3 volte "4" con 5 lanci (e 2 volte "non 4") è
Caratteristiche
Siccome la distribuzione binomiale B(n,p) descrive una variabile aleatoria Sn definita come la somma di n variabili
aleatorie indipendenti Xi di uguale legge di Bernoulli B(p), molte caratteristiche di Sn possono essere ricavate da
quelle di X:
• il valore atteso
• la varianza
• la funzione generatrice dei momenti
• la funzione caratteristica
• il coefficiente di skewness
• il coefficiente di curtosi
La moda di
si ottiene confrontando le probabilità successive
. Se
intero allora
e la moda non è unica; se invece
allora la moda è pari alla sua parte intera
Non esistono formule precise per la mediana di
.
superiore di
,
assume il valore
e
. Se
dell'intervallo possono essere presi come mediana.
non è un intero
, che tuttavia dev'essere compresa tra le parti intere inferiore e
è un intero allora la mediana è
(ad esempio
è un numero
per
ed
. Se la funzione di ripartizione
dispari) allora tutti i valori
Distribuzione binomiale
35
Altre distribuzioni di probabilità
La distribuzione di Bernoulli B(p) può essere considerata come un caso particolare di distribuzione binomiale B(p,1),
che descrive un processo di Bernoulli con una sola prova: S1=X1.
I successi in una sequenza di estrazioni da un'urna, effettuate senza reintroduzione degli estratti, sono descritti da una
variabile aleatoria che segue la legge ipergeometrica.
Convergenze
Per valori di n sufficientemente grandi la legge binomiale è approssimata da altre leggi.
Quando n tende a infinito, lasciando fisso λ=np, la distribuzione binomiale tende alla distribuzione di Poisson
P(λ)=P(np). In statistica quest'approssimazione viene solitamente accettata quando n ≥ 20 e p ≤ 1/20, oppure quando
n ≥ 100 e np ≤ 10.
Per il teorema del limite centrale, quando n tende a infinito, lasciando fisso p, la distribuzione binomiale tende alla
distribuzione normale N(np,npq), di speranza np e varianza npq. In statistica quest'approssimazione viene
solitamente accettata quando np>5 e nq>5.
Più precisamente, il teorema del limite centrale afferma che
Generalizzazioni
Una generalizzazione della distribuzione binomiale
che descrive la somma
distribuzione di Bernoulli
è la legge distribuzione Beta-binomiale
,
di n variabili aleatorie indipendenti, ognuna con
, dove P segue la legge Beta
. (Al contrario della distribuzione binomiale,
le Xi non hanno lo stesso parametro.)
La distribuzione binomiale è una delle quattro distribuzioni di probabilità definite dalla ricorsione di Panjer:
.
Statistica
Nell'inferenza bayesiana si utilizzano particolari relazioni tra la distribuzione binomiale e altre distribuzioni di
probabilità.
Se P è una variabile aleatoria che segue la distribuzione Beta
distribuzione binomiale
e Sn è una variabile aleatoria con
, allora la probabilità condizionata da Sn=x per P segue la distribuzione Beta
. In altri termini, la distribuzione Beta descrive P sia a priori che a posteriori di Sn=x.
In particolare la distribuzione continua uniforme sull'intervallo [0,1] è un caso particolare di distribuzione Beta
, quindi la distribuzione per P, a posteriori di Sn=x, segue la legge Beta
inciso ha un massimo in x/n.
, che per
Distribuzione binomiale
36
Voci correlate
•
•
•
•
Processo di Bernoulli
Distribuzione di Bernoulli
Distribuzione normale
Distribuzione di Poisson
Distribuzione geometrica
Distribuzione geometrica
Funzione di distribuzione discreta
Funzione di ripartizione
Parametri
Supporto
Funzione di densità
Funzione di ripartizione
Valore atteso
Mediana
Moda
Varianza
Skewness
Curtosi
Entropia
Funz. Gen. dei Momenti
Funz. Caratteristica
se
Distribuzione geometrica
37
In teoria della probabilità la distribuzione geometrica è una distribuzione di probabilità discreta sui numeri naturali
(con l'elemento "0") che segue una progressione geometrica:
E' la probabilità che il primo successo (o evento in generale) richieda l' eseguzione di k prove indipendenti, ognuna
di probabilità di successo p. Se la probabilità di successo di ogni prova è p, allora la probabilità che alla kesima
prova (dopo k prove) si ottenga il successo è
con k = 1, 2, 3, ....
La formula qui sopra è usata per modellizzare il numero di tentativi fino ad ottenere il primo successo. Qui sotto
invece si cerca il numero di successi fino al prim fallimento:
for k = 0, 1, 2, 3, ....
In either case, the sequence of probabilities is a geometric sequence.
Definizione
La distribuzione geometrica
è la distribuzione di probabilità sui numeri naturali della forma
, con
dove q indica la probabilità di insuccesso. Il parametro
si ricava da
.
A volte lo zero viene escluso dal supporto: se T ha distribuzione geometrica sopra descritta, la distribuzione di X
=T+1 sarà
e le altre funzioni saranno modificate di conseguenza. Nell'esempio citato sopra, X
sarebbe il numero di estrazioni da fare perché esca un numero fissato.
Processo di Bernoulli
La distribuzione geometrica di parametro q descrive anche il numero T di fallimenti che precedono il primo successo
in un processo di Bernoulli
di parametro p=1-q:
Caratteristiche
Una variabile aleatoria T con distribuzione geometrica di parametro q e avente come supporto i numeri naturali
incluso il numero 0 ha
• funzione di probabilità
• funzione di ripartizione
• valore atteso
• varianza
Distribuzione geometrica
38
• funzione generatrice dei momenti
(nella tabella c'è altro) ->
• funzione caratteristica
I quantili si ricavano dalla funzione di ripartizione:
• se
è un numero intero (
• se invece
) allora
non è intero, allora
e
;
(parte intera).
In particolare la mediana è
se
con
intero,
altrimenti.
Assenza di memoria
La distribuzione geometrica è priva di memoria, ovvero
ed è l'unica distribuzione di probabilità discreta con questa proprietà.
L'indipendenza delle prove in un processo di Bernoulli implica l'assenza di memoria della distribuzione geometrica.
D'altro canto, ogni variabile aleatoria T a supporto sui numeri naturali e priva di memoria rispetta
pertanto ha una distribuzione di probabilità geometrica di parametro
.
Generalizzazioni
Una generalizzazione della distribuzione geometrica è la distribuzione di Pascal (o distribuzione binomiale
negativa), che descrive il numero di fallimenti precedenti il successo r-esimo in un processo di Bernoulli.
Un'ulteriore generalizzazione della distribuzione di Pascal è la distribuzione di Panjer che, come la distribuzione
geometrica, definisce le probabilità per ricorsione.
Esempi
La probabilità che un dado (equilibrato, a 6 facce) debba venire lanciato esattamente 10 volte prima di fornire un "4"
è data dalla distribuzione geometrica. Il lancio del dado può essere considerato un processo di Bernoulli, in cui ogni
prova Xi ha probabilità p=1/6 di fornire "4" (successo) e q=5/6 di fornire un altro numero (fallimento). La probabilità
cercata è quindi
La probabilità che dopo 10 lanci sia uscito almeno un "4" è invece
La probabilità che al decimo lancio si ottenga un "4" dopo che per 9 lanci questo numero non è mai stato ottenuto è
facilmente calcolabile grazie alla mancanza di memoria
Distribuzione geometrica
39
Voci correlate
•
•
•
•
•
•
•
Distribuzione di Bernoulli
Distribuzione di Panjer
Distribuzione di Pascal
Distribuzione di probabilità
Mancanza di memoria
Processo di Bernoulli
Variabile aleatoria
Distribuzione di Poisson
Distribuzione di Poisson
Funzione di distribuzione discreta
Funzione di ripartizione
Parametri
Supporto
Funzione di densità
Funzione di ripartizione
(dove
è la funzione Gamma incompleta)
Valore atteso
Mediana
circa
Moda
sia
Varianza
che
se
Distribuzione di Poisson
40
Skewness
Curtosi
Entropia
Funz. Gen. dei Momenti
Funz. Caratteristica
In teoria delle probabilità la distribuzione di Poisson (o poissoniana) è una distribuzione di probabilità discreta che
esprime le probabilità per il numero di eventi che si verificano successivamente ed indipendentemente in un dato
intervallo di tempo, sapendo che mediamente se ne verifica un numero . Ad esempio, si utilizza una distribuzione
di Poisson per misurare il numero di chiamate ricevute in un call-center in un determinato arco temporale, come una
mattinata lavorativa. Questa distribuzione è anche nota come legge degli eventi rari.
Prende il nome dal matematico francese Siméon-Denis Poisson.
Definizione
La distribuzione di Poisson
è
per ogni
dove
,
è il numero medio di eventi per intervallo di tempo.
Dallo sviluppo in serie dell'esponenziale
si trova
.
Convergenza
La distribuzione di Poisson può essere ottenuta come limite delle distribuzioni binomiali
ovvero si ha una convergenza in legge di
a
, con
,
. Per questa convergenza la distribuzione di Poisson
è anche nota come legge (di probabilità) degli eventi rari.
In statistica si adotta l'approssimazione della distribuzione binomiale tramite la distribuzione di Poisson quando n>20
e p<1/20, o preferibilmente quando n>100 e np<10.
Caratteristiche
Una variabile aleatoria Y di distribuzione di Poisson ha
• valore atteso
• varianza
• funzione generatrice dei momenti
• indici di skewness e di curtosi
,
Distribuzione di Poisson
41
• entropia
che ha un andamento
Proprietà
Se Y1 e Y2 sono due variabili aleatorie indipendenti con distribuzioni di Poisson di parametri
e
rispettivamente, allora
• la loro somma
segue ancora una distribuzione di Poisson, di parametro
;
• la distribuzione di Y1 condizionata da Y=n è la distribuzione binomiale di parametri
Più in generale, la somma
parametri
e
.
di n variabili aleatorie indipendenti con distribuzioni di Poisson di
segue una distribuzione di Poisson di parametro
distribuzione di Y1 condizionata da Y=n è la distribuzione binomiale di parametri
, mentre la
e
.
Distribuzioni collegate
Se la distribuzione di Poisson di parametro
descrive il numero di eventi in un intervallo di tempo, il tempo di
attesa tra due eventi successivi è descritto dalla distribuzione esponenziale di parametro
.
La distribuzione di Skellam è definita come la distribuzione della differenza tra due variabili aleatorie indipendenti
aventi entrambe distribuzioni di Poisson.
La mistura di distribuzioni tra la distribuzione di Poisson e la distribuzione Gamma (che governa il parametro
)è
la distribuzione di Pascal, che talvolta è anche detta Gamma-Poisson.
La distribuzione di Panjer, definita per ricorsione, generalizza la distribuzione di Poisson:
.
Statistica
Approssimazioni
Per
una variabile aleatoria con distribuzione di Poisson
distribuzione normale
; per parametri più piccoli (
viene solitamente approssimata con la
) sono invece necessarie delle correzioni di
continuità, legate ai diversi domini delle due distribuzioni (una discreta, una continua).
La radice quadrata di una variabile aleatoria con distribuzione di Poisson è approssimata da una distribuzione
normale meglio di quanto lo sia la variabile stessa.
Il parametro
può essere stimato come la media delle osservazioni effettuate. Questo stimatore è privo di bias,
ovvero ha come valore atteso
stesso.
Inferenza bayesiana
Se il parametro
di una distribuzione di Poisson distribuito a priori secondo la distribuzione Gamma, allora lo è
anche a posteriori dell'osservazione
.
Intervallo di confidenza per la media
Un criterio rapido per il calcolo approssimato dell'intervallo di confidenza della media campionaria è fornito in
Guerriero (2012). Dato un numero k di eventi (almeno 15-20 per un'approssimazione soddisfacente) registrati in un
certo intervallo di tempo - o di lunghezza, volume etc. -, i limiti dell'intervallo di confidenza per il parametro λ sono
Distribuzione di Poisson
42
dati da:
Storia
Questa distribuzione fu introdotta da Siméon-Denis Poisson nel 1838 nel suo articolo "Recherches sur la probabilité
des jugements en matière criminelle et en matière civile"[1].
Secondo alcuni storici questa variabile casuale dovrebbe portare il nome di Ladislaus Bortkiewicz considerati gli
studi fatti da questo nel 1898.
In realtà la poissoniana come approssimazione della binomiale era già stata introdotta nel 1718 da Abraham de
Moivre in Doctrine des chances.
Tavole dei valori della funzione di probabilità
λ = 0,1; 0,2; ... 1,0
k
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1,0
0 .9048 .8187 .7408 .6703 .6065 .5488 .4966 .4493 .4066 .3679
1 .0905 .1637 .2222 .2681 .3033 .3293 .3476 .3595 .3659 .3679
2 .0045 .0164 .0333 .0536 .0758 .0988 .1217 .1438 .1647 .1839
3 .0002 .0011 .0033 .0072 .0126 .0198 .0284 .0383 .0494 .0613
4
.0001 .0003 .0007 .0016 .0030 .0050 .0077 .0111 .0153
5
.0001 .0002 .0004 .0007 .0012 .0020 .0031
6
.0001 .0002 .0003 .0005
7
.0001
λ = 1,2; 1,4; ... 3,0
k
1,2
1,4
1,6
1,8
2,0
2,2
2,4
2,6
2,8
3,0
0
.3012 .2466 .2019 .1653 .1353 .1108 .0907 .0743 .0608 .0498
1
.3614 .3452 .3230 .2975 .2707 .2438 .2177 .1931 .1703 .1494
2
.2169 .2417 .2584 .2678 .2707 .2681 .2613 .2510 .2384 .2240
3
.0867 .1128 .1378 .1607 .1804 .1966 .2090 .2176 .2225 .2240
4
.0260 .0395 .0551 .0723 .0902 .1082 .1254 .1414 .1557 .1680
5
.0062 .0111 .0176 .0260 .0361 .0476 .0602 .0735 .0872 .1008
6
.0012 .0026 .0047 .0078 .0120 .0174 .0241 .0319 .0407 .0504
7
.0002 .0005 .0011 .0020 .0034 .0055 .0083 .0118 .0163 .0216
8
.0001 .0002 .0005 .0009 .0015 .0025 .0038 .0057 .0081
9
.0001 .0002 .0004 .0007 .0011 .0018 .0027
10
.0001 .0002 .0003 .0005 .0008
Distribuzione di Poisson
43
11
.0001 .0001 .0002
12
.0002
λ = 3,5; 4,0; ... 8,0
k
3,5
4,0
4,5
5,0
5,5
6,0
6,5
7,0
7,5
8,0
0
.0302 .0183 .0111 .0067 .0041 .0025 .0015 .0009 .0006 .0003
1
.1057 .0733 .0500 .0337 .0225 .0149 .0098 .0064 .0041 .0027
2
.1850 .1465 .1125 .0842 .0618 .0446 .0318 .0223 .0156 .0107
3
.2158 .1954 .1687 .1404 .1133 .0892 .0688 .0521 .0389 .0286
4
.1888 .1954 .1898 .1755 .1558 .1339 .1118 .0912 .0729 .0573
5
.1322 .1563 .1708 .1755 .1714 .1606 .1454 .1277 .1094 .0916
6
.0771 .1042 .1281 .1462 .1571 .1606 .1575 .1490 .1367 .1221
7
.0385 .0595 .0824 .1044 .1234 .1377 .1462 .1490 .1465 .1396
8
.0169 .0298 .0463 .0653 .0849 .1033 .1188 .1304 .1373 .1396
9
.0066 .0132 .0232 .0363 .0519 .0688 .0858 .1014 .1144 .1241
10 .0023 .0053 .0104 .0181 .0285 .0413 .0558 .0710 .0858 .0993
11 .0007 .0019 .0043 .0082 .0143 .0225 .0330 .0452 .0585 .0722
12 .0002 .0006 .0016 .0034 .0065 .0113 .0179 .0263 .0366 .0481
13 .0001 .0002 .0006 .0013 .0028 .0052 .0089 .0142 .0211 .0296
14
.0001 .0002 .0005 .0011 .0022 .0041 .0071 .0113 .0169
15
.0001 .0002 .0004 .0009 .0018 .0033 .0057 .0090
16
.0001 .0003 .0007 .0014 .0026 .0045
17
.0001 .0003 .0006 .0012 .0021
18
.0001 .0002 .0005 .0009
19
.0001 .0002 .0004
20
.0001 .0002
21
.0001
Note
[1] (EN) Jan Gullberg, Mathematics from the birth of numbers, W. W. Norton & Company; p. 963-965. ISBN 0-393-04002-X ISBN
978-0-393-04002-9
Bibliografia
• Guerriero V. (2012). Power Law Distribution: Method of Multi-scale Inferential Statistics (http://www.sjmmf.
org/download.aspx?ID=11). J. Mod. Math. Fr.: 21–28.
• Donald E. Knuth, Seminumerical Algorithms (in inglese), Addison Wesley, 1969.
• Ronald J. Evans, J. Boersma, N. M. Blachman, A. A. Jagers (1988). The Entropy of a Poisson Distribution:
Problem 87-6. SIAM Review 30 (2): 314–317 (in inglese). DOI: 10.1137/1030059 (http://dx.doi.org/10.
1137/1030059).
Distribuzione di Poisson
44
Voci correlate
• Distribuzione binomiale
• Mistura di distribuzioni
• Convergenza in distribuzione
Collegamenti esterni
(EN) Eric W. Weisstein, Distribuzione di Poisson (http:/ / mathworld. wolfram. com/ PoissonDistribution. html) su
MathWorld.
Distribuzione di Pascal
Distribuzione di Pascal, o binomiale negativa
Funzione di distribuzione discreta
Funzione di ripartizione
Parametri
oppure
Supporto
Funzione di densità
Funzione di ripartizione
funzione Beta incompleta regolarizzata
Valore atteso
Mediana
Moda
Varianza
Skewness
Curtosi
Entropia
Funz. Gen. dei Momenti
Distribuzione di Pascal
45
Funz. Caratteristica
In teoria delle probabilità la distribuzione di Pascal è una distribuzione di probabilità discreta con due parametri,
ed
, che descrive il numero di fallimenti precedenti il successo n-esimo in un processo di Bernoulli di parametro p.
A volte si considera la distribuzione di Pascal come quella distribuzione che descrive il numero di prove necessarie
per ottenere n successi. Questa distribuzione è equivalente alla precedente ma riscalata, ovvero descrive una variabile
aleatoria
anziché
.
Ad esempio, lanciando una moneta fino ad ottenere 3 volte testa, la distribuzione di Pascal descrive le probabilità per
il numero di risultati croce visti nel frattempo.
La distribuzione prende il nome dal matematico francese Blaise Pascal.
Questa distribuzione di probabilità può essere generalizzata sostituendo il numero naturale n con un numero reale
positivo r. In questo caso viene detta anche distribuzione binomiale negativa (per la sua particolare formula) o di
Polya (dal matematico ungherese George Polya).
Definizione
Dato un processo di Bernoulli, ovvero una serie di variabili aleatorie indipendenti
di uguale
distribuzione di Bernoulli
che conta
, la distribuzione di Pascal
il numero di fallimenti precedenti il successo numero
,
descrive la variable aleatoria
(ovvero il numero di prove necessarie ad ottenerlo, meno n):
.
La probabilità di fallimento di una singola prova è
. La probabilità che si verifichino esattamente k
fallimenti prima di ottenere un totale di n successi è data dalla probabilità di ottenere un successo nella prova numero
k+n (
) e di ottenere esattamente k fallimenti e n-1 successi nelle prove precedenti, ovvero
,
dove il coefficiente binomiale conta il numero di possibili disposizioni di successi e fallimenti. Questa probabilità
può anche essere scritta nella forma binomiale negativa
,
dove si considera la generalizzazione del coefficiente binomiale
.
Definizioni alternative
Sostituendo il numero naturale n con il numero reale positivo r la formula mantiene un significato, anche se il
coefficiente binomiale può essere espresso tramite la funzione Gamma, che estende il concetto di fattoriale (
):
.
Alcuni testi definiscono la distribuzione di Pascal come quella che descrive il numero di prove fino al successo
n-esimo, ed altri scambiano i termini successo ed insuccesso nella definizione. Per collegare queste definizioni basta
rispettivamente considerare la variabile aleatoria
al posto di
nel primo caso e scambiare i valori di p e
Distribuzione di Pascal
46
q nell'altro.
Distribuzione geometrica
Una variabile aleatoria
con distribuzione di Pascal
aleatorie indipendenti con uguale distribuzione geometrica
è pari alla somma
di n variabili
. Questo si può vedere considerando come
variabile aleatoria che conta il numero di fallimenti intercorsi tra il successo numero
la
e il successo numero
le
sono allora indipendenti ed hanno distribuzione geometrica di parametro q.
In particolare, la distribuzione di Pascal
coincide con la distribuzione geometrica
:
, e la somma di
m variabili aleatorie indipendenti con distribuzioni di Pascal aventi lo stesso parametro p segue ancora la
distribuzione di Pascal con parametro p (è sempre somma di variabili aleatorie indipendenti con uguale distribuzione
geometrica).
Caratteristiche
Alcune caratteristiche di una variabile aleatoria Tn che segue la distribuzione di Pascal
ricavare dalle caratteristiche di una variabile aleatoria T con distribuzione geometrica
• il valore atteso
si possono
:
,
• la varianza
,
• la funzione generatrice dei momenti
,
• gli indici di simmetria e di curtosi
.
La funzione di ripartizione può essere definita tramite la funzione Beta incompleta regolarizzata:
Tutte le formule valgono ancora anche sostituendo il numero naturale n con il numero reale positivo r.
Altre distribuzioni
La distribuzione di Pascal è una mistura della distribuzione Gamma e della distribuzione di Poisson: una variabile
aleatoria con distribuzione di Poisson
, il cui parametro L segua una distribuzione Gamma, segue la
distribuzione di Pascal.
La distribuzione di Pascal
, di speranza
, converge alla distribuzione di Poisson
.
La distribuzione di Pascal si trova anche come mistura della distribuzione di Poisson e della distribuzione
logaritmica, ovvero descrive la somma
di un numero
, che segue la distribuzione di Poisson, di
variabili aleatorie indipendenti che seguono una stessa distribuzione logaritmica.
Considerando le variabili aleatorie
aleatorie
di distribuzione binomiale
di
si trova la formula
distribuzione
e le variabili
di
Pascal
Distribuzione di Pascal
47
,
che esprime per un processo di Bernoulli l'equivalenza degli eventi "ottenere meno di k insuccessi prima del
successo n-esimo" e "ottenere almeno n successi nelle prime n+k prove".
La distribuzione di Panjer, che definisce i valori per ricorsione, generalizza la distribuzione di Pascal:
Statistica
La distribuzione di Pascal viene talvolta utilizzata in alternativa alla distribuzione di Poisson, a cui converge in legge
sotto la condizione
, nei casi in cui il modello empirico presenti una varianza maggiore del valore medio: la
distribuzione di Poisson ha sempre speranza pari al valore medio, mentre la distribuzione di Pascal è più dispersa (ha
una varianza maggiore).
Come spesso avviene nell'inferenza bayesiana, se il parametro p di una distribuzione di Pascal segue a priori la
distribuzione Beta, allora la segue anche a posteriori.
Voci correlate
•
•
•
•
•
•
Coefficiente binomiale
Convergenza in distribuzione
Distribuzione geometrica
Distribuzione di Poisson
Mistura di distribuzioni
Processo di Bernoulli
48
53 X ...
Distribuzione continua
In teoria della probabilità, una distribuzione di probabilità continua è una distribuzione di probabilità che possiede
una funzione di densità. Viene anche chiamata distribuzione assolutamente continua, in quanto la sua funzione di
ripartizione è assolutamente continua rispetto alla misura di Lebesgue. Se una variabile casuale X ha distribuzione di
probabilità continua, allora X è detta variabile casuale continua. Ci sono molti esempi di distribuzioni di probabilità
continue, tra cui le distribuzioni normale, uniforme e chi quadrato.
Intuitivamente, le variabili casuali continue sono quelle che possono assumere un insieme continuo di valori, al
contrario delle distribuzioni discrete, per le quali l'insieme dei possibili valori ha cardinalità al più numerabile.
Inoltre, mentre per una distribuzione discreta un evento con probabilità zero è irrealizzabile (come, ad esempio,
ottenere 3½ da un lancio di un dado tradizionale), questo non è vero nel caso di una variabile casuale continua. Ad
esempio, misurando la lunghezza di una foglia di quercia, è possibile ottenere il risultato 3½ cm, ma questo ha
probabilità zero poiché vi sono infiniti possibili valori tra 3 cm e 4 cm. Ognuno di questi ha probabilità zero, ma la
probabilità che la lunghezza della foglia sia nell'intervallo (3 cm, 4 cm) è non nulla. Questo apparente paradosso è
causato dal fatto che la probabilità che una variabile casuale X assuma valori in un insieme infinito, come un
intervallo, non può essere calcolata semplicemente sommando la probabilità dei singoli valori.
Più formalmente, dato che, per definizione, ogni variabile casuale continua X ha una funzione di densità ƒ(x), allora
la probabilità che X cada nell'intervallo [a, b] è data dall'integrale
In particolare, la probabilità che X assuma un singolo valore c (o, equivalentemente, c ≤ X ≤ c) è zero, poiché un
integrale con limiti inferiore e superiore coincidenti è sempre uguale a zero.
Come detto, la funzione di ripartizione di una distribuzione continua è assolutamente continua. La condizione che
tale funzione sia continua è più debole ed esiste una classe di distribuzioni, le distribuzioni singolari, che non sono né
continue, né discrete, né una mistura di queste. Tali distribuzioni tuttavia, non si incontrano mai nelle applicazioni
pratiche. Alcuni autori, chiamano distribuzioni continue quelle la cui funzione di ripartizione è continua, andando
quindi ad includere anche le distribuzioni singolari.
Tabella delle distribuzioni continue più comuni
Nel seguito una tabella delle distribuzioni continue più comuni, si sottointende che la funzione di densità vale 0 al di
fuori del supporto e che la funzione di ripartizione vale 0 nei punti precedenti al supporto e 1 nei punti successivi.
Distribuzione continua
Distribuzione
49
Parametri Supporto
Funzione di densità
Funzione di ripartizione Valore medio Varianza
distribuzione uniforme
distribuzione normale
distribuzione esponenziale
distribuzione Gamma
Voci correlate
• Variabile casuale
• Variabile casuale discreta
• Teoria della probabilità
Altri progetti
•
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/
Category:Probability distributions
Collegamenti esterni
• Continuous Random Variables. [1] John Appleby, School of Mathematical Sciences, Dublin City University.
• (EN) A.V. Prokhorov, "Continuous distribution [2]" SpringerLink Encyclopaedia of Mathematics (2001)
Note
[1] http:/ / webpages. dcu. ie/ ~applebyj/ ms207/ CNSRV1. pdf
[2] http:/ / www. encyclopediaofmath. org/ index. php/ Continuous+ distribution
Funzione di ripartizione
50
Funzione di ripartizione
In statistica e teoria della probabilità, la funzione di ripartizione, anche nota come funzione di distribuzione
cumulativa, è una funzione di variabile reale che racchiude le informazioni su un fenomeno (un insieme di dati, un
evento casuale) riguardanti la sua presenza o la sua distribuzione prima o dopo un certo punto.
Nel calcolo delle probabilità
Nel calcolo delle probabilità la funzione di ripartizione di una variabile casuale X a valori reali è la funzione che
associa a ciascun valore la probabilità dell'evento "la variabile casuale X assume valori minori o uguali ad x".
In altre parole, è la funzione
con dominio la retta reale e immagine l'intervallo
definita da
Una funzione F è una valida funzione di ripartizione se è non decrescente, continua a destra e
Una funzione di ripartizione non è necessariamente continua a sinistra (e dunque continua globalmente): se X è una
variabile casuale discreta e z un punto del suo supporto, allora F è una funzione a gradino e dunque
(ponendo senza restrizioni di generalità
) poiché è una costante indipendente da x,
mentre
dunque essendo p(z)≠0 F non è continua.
Più in generale, una funzione di ripartizione individua univocamente una intera distribuzione di probabilità, cioè una
funzione che ad ogni sottoinsieme misurabile A associa la probabilità che X cada in A[1].
Proprietà
Si può dimostrare dalla definizione che valgono le seguenti uguaglianze, ponendo per semplicità di notazione
:
•
•
•
•
•
•
Se X è una variabile casuale assolutamente continua la funzione di ripartizione di X può essere espressa come
funzione integrale:
ove f è detta funzione di densità di X. Si può anche considerare la relazione inversa:
Funzione di ripartizione
51
Se X è una variabile casuale discreta (ossia ammette una collezione numerabile di possibili valori
dove
)
è detta funzione di probabilità di X.
Esempi
Se X è la variabile aleatoria risultato del lancio di un dado a sei facce
si ha
dove con
si indica la parte intera di x.
Se X è la variabile casuale uniforme continua in
si ha
.
Grafico della funzione di ripartizione relativa alla
distribuzione uniforme
Funzione di sopravvivenza
In alcuni modelli è più utile analizzare la probabilità che un certo dato numerico valga più del valore x (come nella
vita di un organismo, biologico o meccanico): questi casi sono trattati dalla branca chiamata analisi di
sopravvivenza. Si definisce allora la funzione di sopravvivenza S (dal termine inglese survival) come il
complemento della funzione di ripartizione:
Nei casi rispettivamente continuo e discreto, valgono naturalmente delle identità speculari a quelle della ripartizione:
e
Ogni funzione di sopravvivenza
Il tempo
è una funzione monotona decrescente, Vale a dire
per
rappresenta l'origine, in genere l'inizio di uno studio o l'inizio del funzionamento di alcuni sistemi.
Funzione di ripartizione
52
Variabili aleatorie multivariate
Più in generale la funzione di ripartizione di una variabile aleatoria X a valori in
e codominio l'intervallo
dove
sono le componenti di
è la funzione F(x) con dominio
definita da
.
Questa funzione possiede la proprietà di essere continua a destra separatamente per ogni variabile. Valgono inoltre le
seguenti formule, derivanti dalla definizione:
• Per qualsiasi i,
• F è monotona crescente separatamente in ogni variabile, cioè se
• se
,
per semplicità,
•
dove G è la funzione di ripartizione della
variabile k-1-variata
Da quest'ultima proprietà viene anche l'uguaglianza
.
e l'affermazione vale ovviamente anche per ogni permutazione degli indici i.
In statistica descrittiva
In statistica la funzione di ripartizione empirica o funzione di distribuzione cumulativa viene usata per
descrivere fenomeni quantitativi o comunque descritti con valori misurati su scale ordinali, intervallari o
proporzionali, ma non se misurati con una scala nominale.
La funzione di ripartizione o viene indicata solitamente con
e rappresenta il numero di osservazioni del fenomeno minori o uguali del valore x.
Se
sono le osservazioni (ordinate in senso crescente), con frequenze relative
ripartizione ha espressione analitica
Le
sono dette frequenze cumulate.
la funzione di
Funzione di ripartizione
53
Note
[1] J. Jacod; P. Protter, op. cit., Pag. 41
Bibliografia
• Giorgio Dall'Aglio, Calcolo delle probabilità, Zanichelli, Bologna, 2003
• (EN) Jean Jacod; Philip Protter, Probability Essentials, Springer, 2000. ISBN 3540438718
Voci correlate
•
•
•
•
•
•
•
•
Distribuzione (statistica)
Funzione càdlàg
Funzione di densità di probabilità
Funzione caratteristica
Funzione di probabilità
Integrale
Percentile
Quantile
•
•
•
•
Statistica
Teoria della probabilità
Variabile casuale
Histogram matching
Funzione di densità di probabilità
In matematica, una funzione di densità di probabilità (o pdf dall'inglese probability density function) è la funzione
di probabilità di una variabile casuale nel caso in cui la variabile casuale
sia continua, cioè l'insieme dei possibili
valori ha la potenza del continuo.
Essa descrive la "densità" di probabilità in ogni punto nello spazio campionario.
Definizione
La funzione densità di probabilità di una variabile casuale
è l'applicazione
non negativa integrabile
secondo Lebesgue e reale di variabile reale tale che la probabilità dell'insieme A sia data da
per tutti i sottinsiemi A dello spazio campionario. Questo implica che l'integrale su tutto lo spazio di
deve
essere 1. Di conseguenza ogni funzione non negativa, integrabile secondo Lebesgue, con integrale su tutto lo spazio
uguale a 1, è la funzione densità di probabilità di una ben definita distribuzione di probabilità. Una variabile casuale
che possiede densità si dice "variabile casuale continua".
Intuitivamente, se una distribuzione di probabilità ha densità
, allora l'intervallo
ha probabilità
.
Per le variabili casuali multivariate (o vettoriali) la trattazione formale è assolutamente identica:
dice assolutamente continua se esiste una funzione a valori reali definita in
per ogni sottoinsieme A dello spazio campionario
si
, detta densità congiunta, tale che
Funzione di densità di probabilità
54
Essa conserva tutte le proprietà di una densità scalare: è una funzione non negativa a integrale unitario su tutto lo
spazio. Una proprietà importante è che se
è assolutamente continua allora lo è ogni sua
componente; il viceversa invece non vale. La densità di una componente, detta densità marginale, si ottiene con un
ragionamento analogo al teorema della probabilità assoluta, cioè fissando l'insieme di suoi valori di cui si vuole
determinare la probabilità e lasciando libere di variare tutte le altre componenti. Infatti (nel caso bivariato per
semplicità) l'evento
è l'evento
, dunque
utilizzando il teorema di Fubini. La densità marginale di X è data dunque da
Esempio
La funzione di densità della variabile
casuale normale di media 0 e varianza 1
(detta normale standard), di cui è sotto
riportato il grafico e l'espressione analitica
della corrispondente densità nel caso
generico (media e varianza
).
Voci correlate
•
•
•
•
•
•
•
Funzione di ripartizione
Funzione di probabilità
Funzione caratteristica
Variabile casuale
Teoria della probabilità
Statistica
Integrale
• Percentile
• Quantile
Esempio di gaussiana
.
Variabile casuale
55
Variabile casuale
In teoria della probabilità, una variabile casuale (dall'inglese random variable, in italiano variabile aleatoria o
variabile stocastica) può essere pensata come il risultato numerico di un esperimento quando questo non è
prevedibile con certezza (ossia non è deterministico). Ad esempio, il risultato del lancio di un dado a sei facce può
essere matematicamente modellato come una variabile casuale che può assumere uno dei sei possibili valori
. Bruno de Finetti definiva numero aleatorio (termine suggerito dallo stesso per denotare la variabile
aleatoria) un numero ben determinato ma non noto per carenza di informazioni.
Il termine aleatorio deriva da alea ed esprime il concetto di rischio calcolato, non casuale (alea iacta est). La
denominazione alternativa stocastico è stata introdotta da Bruno De Finetti[1]. Il termine casuale è una traduzione
diretta dall'inglese di random.
Definizione
Più formalmente, sia dato uno spazio campionario
su cui è definita una misura di probabilità
, una variabile
casuale è una funzione misurabile dallo spazio campionario a uno spazio misurabile; in questa definizione la nozione
di misurabilità è quella definita da Lindgren (1976): una funzione
definita sullo spazio campionario si dice
misurabile rispetto al campo di Borel
se e solo se l'evento
appartiene a
per ogni
.
• Le variabili casuali a una dimensione (cioè a valori in
) si dicono semplici o univariate.
• Le variabili casuali a più dimensioni si dicono multiple o multivariate (doppie, triple, k-uple).
Variabili casuali che dipendono da un parametro t (t come tempo) vengono considerate processi stocastici.
Distribuzione di probabilità
Ad una variabile casuale X si associa la sua distribuzione, o legge di probabilità
sottoinsieme dell'insieme dei possibili valori di
formule, se
probabilità di
dove
la probabilità che la variabile casuale X assuma valore in esso. In
è una variabile casuale che ha valori in
in
, che assegna ad ogni
e
è un sottoinsieme di
, la distribuzione di
vale
è la misura di probabilità definita sullo spazio campionario.
Per variabili aleatorie a valori reali, la legge di probabilità della variabile casuale
dalla sua funzione di ripartizione, definita come
è individuata univocamente
. Inoltre:
• se la variabile casuale X è discreta, cioè l'insieme dei possibili valori (il rango o supporto di
) è finito o
numerabile, è definita anche la funzione di massa (o funzione massa di probabilità o densità discreta), ossia la
funzione di probabilità discreta
• se la variabile casuale
è continua, cioè l'insieme dei possibili valori ha la potenza del continuo, è definita
anche la funzione di densità di probabilità, cioè la funzione
non negativa tale per cui
In altri termini descrivere in termini probabilistici o statistici una fenomeno aleatorio nel tempo, caratterizzabile
dunque da una variabile aleatoria, vuol dire descriverlo in termini di densità di distribuzione di probabilità e dei suoi
parametri di media o valore atteso e varianza.
Variabile casuale
Storia
Ancorché non formalizzato, il concetto della distribuzione statistica attorno ad una media era noto fin dall'antichità.
Leggiamo infatti nel Fedone di Platone:
«E non è ingiusto, questo? Non è forse vero che chi si comporta così, evidentemente vive tra gli uomini senza
averne nessuna esperienza? Se, infatti, li conoscesse appena, saprebbe che son pochi quelli veramente buoni o
completamente malvagi e che per la maggior parte, invece, sono dei mediocri.»
«In che senso?» feci.
«È lo stesso delle cose molto piccole e molto grandi. Credi forse che sia tanto facile trovare un uomo o un
cane o un altro essere qualunque molto grande o molto piccolo o, che so io, uno molto veloce o molto lento o
molto brutto o molto bello o tutto bianco o tutto nero? Non ti sei mai accorto che in tutte le cose gli estremi
sono rari mentre gli aspetti intermedi sono frequenti, anzi numerosi?»
(Platone, Fedone, XXXIX)
Alcune variabili casuali utilizzate in statistica
Le variabili casuali si dividono principalmente in due grandi classi, discrete e continue (o assolutamente
continue): Esempi del primi tipo:
•
•
•
•
•
•
•
variabile casuale uniforme discreta
variabile casuale bernoulliana, caso particolare della Binomiale
variabile casuale binomiale
variabile casuale poissoniana detta pure legge degli eventi rari
variabile casuale geometrica, caso particolare della distribuzione di Pascal
variabile casuale ipergeometrica
variabile casuale degenere
Esempi del secondo tipo:
•
•
•
•
•
•
•
•
•
variabile casuale normale o gaussiana
variabile casuale Gamma o Erlanghiana
variabile casuale t di Student
variabile casuale di Fisher-Snedecor
variabile casuale esponenziale negativa, caso particolare della v.c. Gamma
variabile casuale Chi Quadrato χ², caso particolare della v.c. Gamma
variabile casuale Beta
variabile casuale rettangolare o uniforme continua
variabile casuale di Cauchy
Tali classi non sono però esaustive della famiglia delle variabili casuali; esiste anche una terza classe, delle variabili
casuali singolari o continue singolari, come la variabile casuale di Cantor.
Il teorema di rappresentazione di Lebesgue ci assicura che ogni funzione di ripartizione (e dunque ogni variabile
casuale) è rappresentabile come combinazione convessa di una funzione di ripartizione discreta, una continua e una
singolare. Variabili casuali che non appartengono a nessuna delle tre classi vengono dette miste.
Si può comunque dimostrare che le classi delle v.c. discrete e delle v.c. continue sono dense nella classe di tutte le
variabili casuali rispetto alla convergenza in distribuzione, cioè per ogni variabile casuale esiste una successione di
v.c. discrete (rispettivamente continue) che converge in distribuzione alla variabile data.
56
Variabile casuale
57
Teoremi
Se
sono variabile casuale Bernoulliane uguali e indipendenti
allora
, è anch'essa una variabile casuale binomiale
Se
è una variabile casuale binomiale
piccolo, tale che
con
molto grande (orientativamente più di 50) e
è, orientativamente, minore di 10 e
quasi uguale a
molto
,
allora
può essere approssimata con una variabile casuale poissoniana ove
.
Se
è una variabile casuale binomiale
con
molto grande, ma
(e dunque non vale
l'approssimazione con la poissoniana),
allora
può essere approssimata con una variabile casuale normale con valore atteso pari a
e varianza uguale a
:
Se
e
sono due variabili casuali indipendenti, distribuite come una variabile casuale poissoniana con
parametro rispettivamente
e
allora
è a sua volta una variabile casuale Poissoniana con parametro
Se
e
sono due variabile casuale Gamma in senso stretto (
rispettivamente a
) con il parametro
uguale
e
allora
è distribuita come una variabile casuale Beta con i parametri
e
Se
e
sono due variabile casuale identiche e indipendenti distribuite come una variabile casuale
esponenziale negativa con parametro
allora
è una variabile casuale Gamma con parametri
e
Variabile casuale
58
La variabile casuale esponenziale negativa viene usata in relazione alla variabile casuale poissoniana in quanto:
se
il numero di successi entro un predeterminato intervallo di tempo è distribuito come una poissoniana (con
parametro ),
allora
l'intervallo di tempo che passa tra due successi è distribuito come una esponenziale negativa con
;
e viceversa.
Se
sono
variabili casuali
tra di loro indipendenti, ciascuna con
gradi di libertà,
allora
la variabile casuale
è a sua volta una variabile casuale
con
gradi di
libertà, ove
Se
è una variabile casuale normale standardizzata
,e
allora
è una variabile casuale
Considerato un campione di
con 1 grado di libertà.
elementi estratto da una popolazione normale
indicando con
distribuzione della varianza campionaria sarà:
Se
è una variabile casuale t di Student e
allora
tende ad una variabile casuale normale standardizzata (
e
)
Se
e
,
allora
è distribuita come una variabile casuale t di Student con
variabile casuale F di Snedecor:
Se
il secondo grado di libertà è molto grande,
allora
la F di Snedecor tende verso una variabile casuale Gamma con
Se
entrambi i gradi di libertà sono molto grandi,
allora
si può usare la normale
gradi di libertà.
la
Variabile casuale
59
Se
il primo grado di libertà è pari ad 1,
allora
si può usare la variabile casuale t di Student
Se
e
sono variabili casuali Chi Quadrato con rispettivamente
e
gradi di libertà
è distribuita come una variabile casuale F di Snedecor con
e
gradi di liberta;
allora
Se
in un processo markoviano (continuo nel tempo) nascite-morti, con le condizioni iniziali
e 0 altrimenti, si osserva un processo di pure nascite con tasso costante
;
allora
si ottiene la soluzione
, ovvero una variabile casuale poissoniana con parametro
Note
[1] DELI, Dizionario etimologico della lingua italiana, Zanichelli, 2009
Voci correlate
• Mistura di distribuzioni
• Variabile casuale standardizzata
• Winsorizzazione
Altri progetti
•
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Probability
distribution
per
Variabili dipendenti e indipendenti
Variabili dipendenti e indipendenti
In matematica una variabile è dipendente da altre variabili se esiste una relazione tra di esse che la coinvolge,
altrimenti è indipendente da esse. Due o più variabili indipendenti l'una dall'altra sono dette variabili indipendenti.
In assenza di una relazione, le variabili sono solitamente supposte indipendenti.
Ad esempio, le coordinate (x,y) dei punti nel piano sono variabili indipendenti, mentre le coordinate dei punti su una
circonferenza di raggio r sono variabili dipendenti: x2+y2=r2 (alcuni valori che possono essere scelti singolarmente
per le due variabili non possono essere presi contemporaneamente).
In teoria delle probabilità due variabili aleatorie X e Y sono indipendenti quando lo sono le loro funzioni di
probabilità, quindi se la loro probabilità congiunta è sempre pari al prodotto delle singole probabilità:
In statistica talvolta la denominazione non è così precisa ma viene, per comodità d'uso, associata all'ordine con cui si
considerano le variabili: ognuna viene detta dipendente o indipendente rispetto alle sole variabili precedenti (la
prima è automaticamente indipendente). In particolare, per due variabili dipendenti X e Y (come l'età e il titolo di
studio) è possibile scegliere quale considerare indipendente e quale dipendente. In base al contesto si usano come
sinonimi
• per una variabile indipendente: regressore, predittore, controllata, manipolata o di input;
• per una variabile dipendente: di risposta, misurata, spiegata, sperimentale o di output.
Voci correlate
• Teorema della probabilità composta
• Variabile (matematica)
60
Valore atteso
61
Valore atteso
In teoria della probabilità il valore atteso (chiamato anche media, speranza o speranza matematica) di una
variabile casuale
, è un numero indicato con
(da expected value o expectation in inglese o dal francese
espérance) che formalizza l'idea euristica di valore medio di un fenomeno aleatorio.
In generale il valore atteso di una variabile casuale discreta (che assuma cioè solo un numero finito o una infinità
numerabile di valori) è dato dalla somma dei possibili valori di tale variabile, ciascuno moltiplicato per la probabilità
di essere assunto (ossia di verificarsi), cioè è la media ponderata dei possibili risultati. Per una variabile casuale
continua la questione è più delicata e si deve ricorrere alla teoria della misura e all'integrale di Lebesgue-Stieltjes.
Ad esempio nel gioco testa o croce, se scegliamo "testa" e ipotizziamo un valore di 100 per la vittoria (testa) e di
zero per la sconfitta (croce), il valore atteso del gioco è 50, ovvero la media delle vincite e perdite pesata in base alle
probabilità (50% per entrambi i casi):
, cioè il valore di "testa" per la sua probabilità e
il valore di "croce" per la sua probabilità.
Definizione matematica
Sia
uno spazio di probabilità, ed
funzione misurabile
valore atteso di
una variabile aleatoria a valori reali su tale spazio (ossia una
, dove i numeri si intendono equipaggiati con la loro σ-algebra boreliana). Il
è semplicemente l'integrale di
rispetto alla misura di probabilità
:
.
Calcolare il valore atteso di variabili aleatorie discrete
Nel caso di variabile casuale discreta che ammette funzione di probabilità
può essere calcolata come
Calcolare il valore atteso di variabili aleatorie assolutamente continue
Nel caso di variabile casuale continua che ammette funzione di densità di probabilità f(x) il calcolo diventa
Speranza matematica finita
Si dice che
ha speranza matematica finita nel discreto se
mentre nel continuo se
Valore atteso
62
Proprietà
Media di una costante
La media di una costante c (cioè di una variabile casuale che assume il valore c con probabilità 1) è ovviamente la
costante stessa: E[c]=c.
Linearità
Un'importante caratteristica del valore atteso è la sua linearità: ovvero per ogni variabile casuale X e coppia di
numeri reali a e b si ha
Questa proprietà è facilmente dimostrabile: ad esempio, nel caso di una variabile casuale discreta, si ha
perché la somma delle probabilità è 1, in quanto consideriamo la somma di tutti i possibili eventi.
Questa proprietà ha la conseguenza importante che date due variabili casuali qualsiasi X e Y (non necessariamente
indipendenti) si ha
Questa proprietà non vale per il prodotto: in generale, E[XY] è diverso da E[X]E[Y]. Quando queste due quantità
sono uguali, si dice che X e Y sono non correlate. In particolare, due variabili casuali indipendenti sono non
correlate.
Monotonia
Se i valori che assume una variabile casuale X sono compresi tra due estremi a e b, così sarà la media di X; infatti
e allo stesso modo si dimostra nel caso continuo. Da
questo si deduce che se due variabili casuali verificano
(ovvero, per ogni evento E, il valore di X in
corrispondenza di quell'evento è maggiore o uguale di quello di Y), allora
Stime del valore atteso
In statistica, la stima del valore atteso assume un ruolo centrale, in quanto principale parametro usato nella statistica
inferenziale.
Calcolo del valore atteso nel gioco
Gioco dei dadi
Nel gioco dei dadi rappresentando il risultato del tiro del dado con una variabile casuale che possa assumere i valori
, ciascuno con probabilità
. Intuitivamente, la media di questa variabile casuale sarà
,
dal momento che
.
Valore atteso
63
Il gioco del lotto
• Nel gioco del lotto vengono estratti 5 numeri tra 1 e 90, ed un giocatore può puntare una certa posta sul verificarsi
di vari eventi. Calcoliamo il valore atteso del ricavo di uno scommettitore che punti 10 euro sulle cinque possibili
giocate:
• numero secco (si punta sull'uscita di un determinato numero; la vincita paga circa 11 volte la posta): la
probabilità che il giocatore vinca è data dal rapporto da 5/90 (rapporto tra i numeri vincenti e tutti i numeri che
possono essere estratti), ed in tal caso il giocatore vincerà
euro; la probabilità di perdita
è 85/90, ed in tal caso il giocatore perderà i 10 euro di puntata. Il ricavo medio sarà quindi
. Ossia, in media il giocatore perderà
euro per ogni 10 euro
giocati.
• ambo (si punta sull'uscita di un determinata coppia di numeri; la vincita paga 250 volte la posta): vi sono
possibili coppie di numeri. Poiché sulla ruota vengono estratti 5 numeri, gli ambi estratti sono
e pertanto il giocatore vincerà con probabilità 10/4005, ed in tal caso egli guadagnerà
euro; la probabilità di perdita è 3995/4005, ed in tal caso il giocatore perderà i 10
euro di puntata. Il guadagno medio sarà quindi
. Ossia, in media il
giocatore perderà
euro per ogni 10 euro giocati.
• terno (si punta sull'uscita di un determinata terna di numeri; la vincita paga 4500 volte la posta): Ci sono
117480 possibili terne distinte di numeri.
• quaterna (si punta sull'uscita di un determinata quaterna di numeri; la vincita paga 120000 volte la posta): Ci
sono 2555190 possibili quaterne distinte di numeri.
• cinquina (si punta sull'uscita di un determinata cinquina di numeri; la vincita paga 6 milioni di volte la posta):
Ci sono 43949268 possibili cinquine distinte di numeri.
La tabella seguente mostra un riepilogo delle perdite medie per una giocata di importo pari a 1 euro.
Probabilità di vincita Quote di Vincita per 1 euro giocato Perdita media in centesimi
Ambo
1/(400.5)
250
37.6
Terna
1/(11748)
4500
61.7
Quaterna 1/(511038)
120000
76.5
Cinquina 1/(43949268)
6 milioni
86.3
Bibliografia
• Giorgio Dall'Aglio, Calcolo delle probabilità, Zanichelli, Bologna, 2003
Probabilità e lotto [1]
Voci correlate
•
•
•
•
•
•
Teoria della probabilità
Media
Funzione generatrice dei momenti
Funzione di densità
Funzione di ripartizione
Valore atteso condizionato
Valore atteso
64
Note
[1] http:/ / www. unipa. it/ ~sanfilippo/ pub/ sigad/ lotto. pdf
Varianza
Nella teoria della probabilità e in statistica la varianza di una variabile aleatoria x (e della distribuzione di
probabilità che questa segue) è una funzione indicata con σ2(x), che fornisce una misura di quanto siano vari i valori
assunti dalla variabile, ovvero di quanto si discostino dal valore atteso
.
Definizione
La varianza di x è definita come il valore atteso del quadrato della variabile aleatoria centrata
In statistica viene spesso preferita la radice quadrata della varianza di x, lo scarto tipo (o scarto quadratico medio)
indicato con la lettera σ. Per questo motivo talvolta la varianza viene indicata con σ2.
Un esempio di "misura" dello scostamento di una variabile aleatoria dalla media è dato dalla disuguaglianza di
Čebyšëv che controlla questo scostamento in termini dello scarto tipo:
Proprietà
La varianza di una variabile aleatoria non è mai negativa, ed è zero solamente quando la variabile assume quasi
certamente un solo valore, P(x=x)=1.
Una formula alternativa per la varianza è
Questa formula è a volte più pratica per calcolare la varianza.
Linearità
La varianza è invariante per traslazione, che lascia fisse le distanze dalla media, e cambia quadraticamente per
riscalamento:
La varianza della somma di due variabili indipendenti è pari alla somma delle loro varianze
Usande le due precedenti affermazioni, possiamo dire che la varianza della differenza di due variabili indipendenti è
pari alla somma delle loro varianze
Se x e y non sono indipendenti, la formula viene corretta dalla loro covarianza,
,
dove
In particolare, la media aritmetica
varianza aritmetica
di n variabili aleatorie indipendenti aventi la medesima legge, ha
Varianza
65
Variabili discrete e continue
La varianza di una variabile aleatoria discreta x a valori in un insieme X si calcola attraverso la sua funzione di
probabilità:
La varianza di una variabile aleatoria continua x a valori in un insieme X si calcola attraverso la sua densità di
probabilità:
Statistica
In statistica viene utilizzata più spesso della varianza la sua radice quadrata, vale a dire lo scarto quadratico medio
anche detto deviazione standard. Con riferimento a questa notazione la varianza si trova quindi
anche indicata come
.
Stimatori
In statistica si utilizzano solitamente due stimatori per la varianza su un campione di cardinalità n:
e
(anche chiamati varianza campionaria) dove
,
è lo stimatore per la media.
Lo stimatore Sn-1 è privo di bias, ovvero il suo valore atteso è proprio la varianza
.
Al contrario, lo stimatore Sn ha un valore atteso diverso dalla varianza,
.
Una giustificazione del termine n-1 è data dalla necessità di stimare anche la media. Se la media μ è nota, lo
stimatore Sn diventa corretto. Questa è detta "Correzione di Bessel".
Varianza
66
In contrasto con,
Se le xi seguono la legge normale N(μ,σ), lo stimatore S2n-1 segue una legge del χ2
Varianza osservata
Come per gli stimatori, esistono due diverse varianze osservate sui dati di un campione
osservata
,
e
In particolare,
di media
.
è la media quadratica delle distanze dei valori dalla loro media.
Esempi
Una variabile aleatoria x di legge di Bernoulli B(p), ovvero che ha probabilità p di fornire "1" e probabilità q=1-p di
fornire "0", ha valore medio
;
la sua varianza può essere calcolata come
oppure come
.
Il campione {-4, -1, 1, 2, 7} ha media aritmetica
e le varianze aritmetiche osservate sono
e
Varianza
67
.
Voci correlate
•
•
•
•
•
Covarianza
Legge della varianza totale
Scarto quadratico medio
Valore atteso
Variabili indipendenti
Legge della varianza totale
La legge della varianza totale è un teorema della teoria della probabilità, che afferma che se
casuali definite sul medesimo spazio di probabilità, e la varianza di
dove
è il valore atteso condizionato di x, e
e
sono variabili
è finita, allora:
la varianza condizionata, ovvero:
Dal punto di vista della statistica più che della teoria della probabilità, il primo termine è detto componente non
spiegata della varianza totale, e il secondo è la componente spiegata; tale suggestiva terminologia si ricollega
all'analisi del modello lineare, e in particolare al coefficiente di determinazione, o R².
Dimostrazione
La legge della varianza totale può essere immediatamente dimostrata sfruttando la legge delle aspettative iterate,
come segue.
Relazione con il modello lineare
La legge della varianza totale presenta un'importante relazione con il modello di regressione lineare. Nel caso
univariato, il modello lineare può essere enunciato come:
Si ha in tal caso che il rapporto di covarianza:
Ma allora, la componente spiegata della varianza totale altro non è che:
così che il rapporto tra l'espressione sopra e
è il quadrato del coefficiente di correlazione tra
e
:
Legge della varianza totale
68
Tale grandezza corrisponde in effetti al coefficiente di determinazione R². È possibile ottenere un'analoga relazione
nel caso multivariato.
Estensioni ai momenti di ordine superiore
Esistono relazioni analoghe alla legge della varianza totale e alla legge delle aspettative iterate per i momenti centrali
di ordine superiore. Ad esempio, con riferimento al momento centrale di ordine 3, si ha:
Voci correlate
• Teorema della probabilità totale
• Legge delle aspettative iterate
• Regressione lineare
Covarianza
In teoria della probabilità la covarianza σ di due variabili aleatorie è un numero σ(x,y) che fornisce una misura di
quanto le due varino assieme, ovvero della loro dipendenza.
Definizione
La covarianza di due variabili aleatorie x e y è il valore atteso dei prodotti delle loro distanze dalla media:
.
La covarianza di x e y può anche essere espressa come la differenza tra il valore atteso del loro prodotto e il prodotto
dei loro valori attesi:
.
Infatti per la linearità del valore atteso risulta
.
Proprietà
La covarianza rispetta le seguenti proprietà, per variabili aleatorie x, y e z, e costanti a e b:
•
•
•
Due variabili aleatorie indipendenti hanno covarianza nulla, poiché dalla loro indipendenza segue
Due variabili aleatorie che hanno covarianza nulla sono non correlate.
Due variabili aleatorie dipendenti possono essere non correlate. Ad esempio, se x è una variabile aleatoria di legge
uniforme sull'intervallo [-1,1] e y=x2, allora
Covarianza
69
Varianza
La covarianza può essere considerata una generalizzazione della varianza
e compare come termine di correzione nella relazione
Più in generale, per variabili aleatorie
e
vale
come caso particolare di
.
Statistica
Su un campione di n osservazioni congiunte (xi,yi), di rispettive medie osservate
e
, la covarianza osservata è
.
Uno stimatore della covarianza per N osservazioni congiunte (xi,yi) è
L'indice di correlazione di Pearson è il rapporto tra la covarianza e le radici delle varianze:
Voci correlate
•
•
•
•
Valore atteso
Variabili indipendenti
Varianza
Matrice delle covarianze
Deviazione standard
70
Deviazione standard
La deviazione standard o scarto tipo[1] o scarto quadratico medio è un indice di dispersione delle misure
sperimentali, vale a dire è una stima della variabilità di una popolazione di dati o di una variabile casuale. La
deviazione standard è uno dei modi per esprimere la dispersione dei dati intorno ad un indice di posizione, quale può
essere, ad esempio, il valore atteso o una stima del suddetto valore atteso. La deviazione standard ha pertanto la
stessa unità di misura dei valori osservati (al contrario della varianza che ha come unità di misura il quadrato
dell'unità di misura dei valori di riferimento). In statistica la precisione si può esprimere come deviazione standard.
Il termine "standard deviation" è stato introdotto in statistica da
Pearson[2] assieme alla lettera greca σ che lo rappresenta. Il termine
italiano "deviazione standard" ne è la traduzione più utilizzata nel
linguaggio comune; il termine dell'Ente Nazionale Italiano di
Unificazione è tuttavia "scarto tipo", definito come la radice quadrata
positiva della varianza per lo meno fin dal 1984[3].
Se non indicato diversamente, la deviazione standard è semplicemente
la radice quadrata della varianza, la quale viene coerentemente
rappresentata con il quadrato di sigma (σ²).
Una serie di dati con una media di 50 (in blu) e
una deviazione standard (σ) di 20.
dove
è la media aritmetica.
Formalmente lo scarto tipo di una variabile casuale può essere calcolato a partire dalla funzione generatrice dei
momenti (radice quadrata della differenza tra il momento secondo ed il momento primo elevato al quadrato).
A partire dallo scarto tipo si definisce anche il coefficiente di variazione[4] o la deviazione standard relativa come il
rapporto tra lo scarto tipo
e il modulo della media aritmetica dei valori:
Questo nuovo parametro (che assolutamente non può essere espresso in percentuale) consente di effettuare confronti
tra dispersioni di dati di tipo diverso, indipendentemente dalle loro quantità assolute.
Esistono argomenti teorici, soprattutto nell'ambito della teoria della stima ovvero nell'ambito della statistica
inferenziale (dove è noto solo un campione della popolazione), per rimpiazzare il fattore
con
nella definizione, ottenendo come nuova definizione:
Sostanzialmente, poiché non è nota la media dell'intera popolazione, ma solo una sua stima (la media del campione),
bisogna utilizzare
per ottenere uno stimatore corretto della varianza della popolazione a partire dai dati del
campione.
Questa correzione al denominatore fa sì che la nuova definizione sia un po' più grande della precedente, correggendo
così la tendenza della precedente a sottostimare le incertezze soprattutto nel caso in cui si lavori con pochi dati (
piccolo).
Osserviamo il caso limite di
, cioè quando effettuiamo una sola misura: la prima definizione dà il risultato,
sensato nell'ambito della statistica descrittiva ma non molto ragionevole nell'ambito della inferenziale,
mentre la nuova dà un risultato non definito del tipo
,
, rispecchiando così la totale ignoranza inerente
Deviazione standard
all'incertezza su una singola misura. In questo senso, si dice che la statistica non dice nulla sul singolo caso.
Peraltro la differenza tra le due definizioni è quasi sempre numericamente insignificante: già nel caso di dieci misure
la differenza tra
e
è insignificante per la maggior parte degli scopi.
Semplificando la formula
Il calcolo può essere semplificato come segue:
cioè, applicando il tutto alla formula originale:
Poiché il primo addendo sotto radice può essere visto come il valore atteso degli x quadrati, spesso si scrive:
Applicazioni
In ambito finanziario, lo scarto tipo viene usato per indicare la variabilità di un'attività finanziaria e dei suoi payoff
(rendimenti). Esso fornisce quindi, implicitamente, una misura della volatilità dell'attività, quindi del suo rischio.
Nell'ambito del Capital Asset Pricing Model, fornendo un'idea della misura di rischio, esso determina univocamente
il prezzo sul mercato.
In fisica, è un ottimo indice dell'errore casuale della misurazione di una grandezza fisica.
In ambito sportivo è utilizzato per valutare la prestazione di un giocatore di bowling in riferimento ad un certo
numero di partite. Il valore trovato non incide sul punteggio ma sintetizza le capacità e i miglioramenti del giocatore.
71
Deviazione standard
72
Applicazioni informatiche
Nelle applicazioni informatiche, è a volte conveniente utilizzare la formula
che consente, con sole tre variabili
, di calcolare la deviazione standard (oltre che la media)
di un flusso di numeri di lunghezza imprecisata, senza dover ricorrere ad una memorizzazione degli stessi.
Note
[1] UNI, Norma italiana UNI ISO 3534-1:2000, Statistica - Vocabolario e simboli, Probabilità e termini statistici generali. Milano: UNI, 2000,
definizione 1.23.
[2] Karl Pearson, On the dissection of asymmetrical frequency curves, 1894
[3] UNI, Norma italiana UNI 4723:1984, Metodi statistici per il controllo della qualità. Termini, simboli e definizioni. Milano: UNI, 1984.
sostituita dalla norma citata UNI ISO 3534-1 nel febbraio 2000.
[4] UNI, Norma italiana UNI ISO 3534-1:2000, Statistica - Vocabolario e simboli, Probabilità e termini statistici generali. Milano: UNI, 2000,
definizione 1.24 e 2.35.
Voci correlate
•
•
•
•
•
•
Root sum squared
Scarto interquartile
Varianza
Stimatore corretto
Precisione
Median absolute deviation
Altri progetti
•
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Standard deviation
Media (statistica)
73
Media (statistica)
In statistica la media è un singolo valore numerico che descrive
sinteticamente un insieme di dati. Esistono varie tipologie di
media che possono essere scelte per descrivere un fenomeno.
Quelle più comunemente impiegate sono le tre medie pitagoriche
(aritmetica, geometrica, e armonica).
Nel linguaggio ordinario spesso viene chiamato media il tipo che
è detto media aritmetica, sottintendendo quindi il termine
aritmetica.
Media aritmetica
Una funzione di distribuzione con evidenziate la moda,
la mediana e la media
La media aritmetica è il tipo di media impiegato più comunemente
e quello al quale, con il termine "media", si fa in genere
riferimento nel parlare comune. Viene usata per riassumere con un solo numero un insieme di dati su un fenomeno
misurabile (per esempio, l'altezza media di una popolazione).
Viene calcolata sommando i diversi valori a disposizione, i quali vengono divisi per il loro numero complessivo.
La formula della media aritmetica semplice per n elementi è:[1]
La media aritmetica ponderata (o media pesata) è una combinazione lineare convessa dei dati in analisi. Ciascun
valore è moltiplicato per il proprio peso.
La formula generale è:
dove f rappresenta il peso di ciascun termine.
Si dimostra facilmente che la media aritmetica è un indice di posizione, in quanto aggiungendo o moltiplicando tutti i
valori per una stessa quantità la media stessa aumenta o è moltiplicata per quella stessa quantità. Come tutti gli indici
di posizione, la media aritmetica fornisce l'ordine di grandezza dei valori esistenti e permette di conoscerne la
somma dei valori (moltiplicando la media per il numero n di elementi).
Oltre che in matematica, la media aritmetica è ampiamente impiegata in svariati campi, quali economia, sociologia e
nella maggior parte delle discipline accademiche.
Nonostante la media aritmetica sia spesso usata per fare riferimento alle tendenze, non fornisce un dato statistico
robusto in quanto risente notevolmente dei valori outlier. Nelle distribuzioni simmetriche la media aritmetica può
non accordarsi con il valore medio e altri indici più forti, come la mediana, forniscono una migliore descrizione della
tendenza centrale.
Media (statistica)
74
Esempio
Dati cinque numeri:
la loro media aritmetica è data da:
Media ponderata
Per calcolare la media ponderata di una serie di dati di cui ogni elemento
proviene da una differente distribuzione
di probabilità con una varianza
nota, una possibile scelta per i pesi è data da:
La media ponderata in questo caso è:
e la varianza della media ponderata è:
che si riduce a
quando tutti i
.
Il significato di tale scelta è che questa media pesata è lo stimatore di massima verosimiglianza della media delle
distribuzioni di probabilità nell'ipotesi che esse siano indipendenti e normalmente distribuite con la stessa media.
Media geometrica
La media geometrica di n termini è la radice n-esima del prodotto degli n valori:
Sfruttando le proprietà dei logaritmi, l'espressione della media geometrica può essere resa trasformando i prodotti in
somme e le potenze in prodotti:
Analogamente al caso della media aritmetica, attribuendo un peso ai termini si può calcolare la media geometrica
ponderata:
La media geometrica può essere vista anche come media aritmetico-armonica. Definendo infatti due successioni:
e
convergono alla media geometrica di x e y
Media (statistica)
75
Infatti le successioni convergono ad un limite comune. Si può infatti osservare che:
Lo stesso ragionamento può essere applicato sostituendo le medie aritmetica e armonica con una coppia di medie
generalizzate di ordine finito ed opposto.
La media geometrica si applica a valori positivi. Ha un chiaro significato geometrico: ad esempio la media
geometrica di due numeri è la lunghezza del lato di un quadrato equivalente ad un rettangolo che abbia i lati di
modulo pari ai due numeri. Lo stesso vale in un numero di dimensioni superiore. La media geometrica trova impiego
soprattutto dove i valori considerati vengono per loro natura moltiplicati tra di loro e non sommati. Esempio tipico
sono i tassi di crescita, come i tassi d'interesse o i tassi d'inflazione.
Una caratteristica è che valori piccoli (rispetto alla media aritmetica) sono molto più influenti dei valori grandi. In
particolare, è sufficiente la presenza di un unico valore nullo per annullare la media.
Esempio
Dati cinque numeri:
la loro media geometrica è data da:
Media armonica
La media armonica di n termini è definita come il reciproco della media aritmetica dei reciproci.
Per praticità di calcolo si può applicare la seguente formula, ottenuta tramite le proprietà di somme e prodotti:
Se a un insieme di dati è associato un insieme di pesi
come:
, è possibile definire la media armonica ponderata
La media armonica semplice rappresenta un caso particolare, nel quale tutti i pesi hanno valore unitario.
La media armonica è fortemente influenzata dagli elementi di modulo minore: rispetto alla media aritmetica risente
meno dell'influenza di outlier grandi, ma è influenzata notevolmente dagli outlier piccoli.
Media (statistica)
76
Esempio
Dati cinque numeri:
la loro media armonica è data da:
Media di potenza
La media di potenza (o media generalizzata o media di Hölder o media p-esima) rappresenta una generalizzazione
delle medie pitagoriche. È definita come la radice p-esima della media aritmetica delle potenze di esponente p degli
n valori considerati:
Molte altre tipologie di media sono casi particolari della media generalizzata, per opportuni valori di p:
• media aritmetica, per
•
•
•
•
media geometrica, per
media armonica, per
media quadratica, per
media cubica, per
(usata soprattutto in presenza di numeri negativi per eliminare i segni)
Inoltre:
•
•
Ad ogni termine può essere associato un coefficiente detto peso, in genere rappresentato dalla frequenza oppure da
un valore il quale descrive l'importanza (oggettiva o soggettiva) che il singolo elemento riveste nella distribuzione.
Se ai dati in esame si assegna un insieme di pesi
, tali che
, è possibile definire la media pesata:
Media aritmetico-geometrica
La media aritmetico-geometrica (AGM) di due numeri reali positivi x e y è definita come limite comune di due
successioni definite come segue.
Si determinano la media aritmetica
e la media geometrica
di x ed y
.
Quindi si itera il procedimento, sostituendo
ad x e
ad y. In questo modo si ottengono due successioni:
Le due successioni sono convergenti e hanno limite comune, detto media aritmetico-geometrica di x ed y, indicata
come
o talvolta come
.
La media geometrica di due numeri è sempre minore della media aritmetica, di conseguenza
crescente,
è decrescente e si ha
è una successione
(le disuguaglianze sono strette se x ≠ y).
Media (statistica)
Quindi
77
è un numero compreso fra la media aritmetica e la media geometrica di x ed y.
Inoltre, dato un numero reale r ≥ 0, vale la relazione
Esiste anche una espressione in forma integrale di
dove
:
rappresenta l'integrale ellittico completo di prima specie:
Inoltre, poiché la media aritmetico-geometrica converge piuttosto rapidamente, la formula precedente è utile anche
nel calcolo degli integrali ellittici.
Il reciproco della media aritmetico-geometrica di 1 e
è chiamata costante di Gauss, in onore del matematico
tedesco Carl Friedrich Gauss.
Media integrale
Una generalizzazione del concetto di media a distribuzioni continue prevede l'uso di integrali. Supponiamo di avere
una funzione
, integrabile. Allora si può definire la media come:
Data inoltre una funzione
tale che
, detta peso, si può definire la media integrale pesata
come:
Più in generale data una funzione
integrazione, si definisce la media
dove
è un insieme sul quale è definita una funzione di
come:
Media temporale
La media temporale, spesso usata nella trattazione di segnali, è chiamata componente continua. Si tratta della media
integrale calcolata in un intervallo di tempo tendente all'infinito.
.
per:
Media (statistica)
78
Note
[1] (EN) IUPAC Gold Book, "arithmetic mean (average)" (http:/ / goldbook. iupac. org/ A00440. html)
Voci correlate
•
•
•
•
•
•
Valore atteso
Varianza
Covarianza
Momento (statistica)
Trimmed mean
Disuguaglianza delle medie
Collegamenti esterni
• Calcolo della media pesata (http://stat.altervista.org) - Sito italiano che permette di eseguire online il calcolo
della media, anche pesata, di una serie di dati.
• Calcolo Media Ponderata (http://lamediaponderata.altervista.org)- Sito italiano che permette di calcolare la
media ponderata on-line. In specifico per l'Università.
Distribuzione normale
Variabile casuale normale (o di Gauss)
Funzione di densità
La linea in verde si riferisce alla variabile casuale normale standardizzata
Distribuzione normale
79
Funzione di ripartizione
I colori corrispondono a quelli delle densità della figura precedente
Parametri
,
Supporto
Funzione di densità
Funzione di ripartizione
Valore atteso
Mediana
Moda
Varianza
Skewness
Curtosi
Entropia
Funz. Gen. dei Momenti
Funz. Caratteristica
In teoria della probabilità la distribuzione normale, o di Gauss (o gaussiana) dal nome del matematico tedesco
Carl Friederich Gauss, è una distribuzione di probabilità continua che è spesso usata come prima approssimazione
per descrivere variabili casuali a valori reali che tendono a concentrarsi attorno a un singolo valor medio. Il grafico
della funzione di densità di probabilità associata è simmetrico ed a forma di campana, nota come Campana di
Gauss (o anche come curva degli errori, curva a campana, ogiva).
La distribuzione normale è considerata il caso base delle distribuzioni di probabilità continue a causa del suo ruolo
nel teorema del limite centrale. Più specificamente, assumendo certe condizioni, la somma di n variabili casuali con
media e varianza finite tende a una distribuzione normale al tendere di n all'infinito. Grazie a questo teorema, la
distribuzione normale si incontra spesso nelle applicazioni pratiche, venendo usata in statistica e nelle scienze
naturali e sociali[1] come un semplice modello per fenomeni complessi.
La distribuzione normale dipende da due parametri, la media μ e la varianza σ2, ed indicata tradizionalmente con:
Distribuzione normale
80
Metodologia
La distribuzione normale è caratterizzata dalla seguente funzione di densità di probabilità, cui spesso si fa
riferimento con la dizione curva di Gauss o gaussiana:
.
Dove
è il valore atteso e
Per dimostrare che
la varianza.
è effettivamente una funzione di densità di probabilità si ricorre innanzi tutto alla
standardizzazione (statistica) della variabile casuale, cioè alla trasformazione tale per cui risulta:
,
dove la variabile risultante
ha anch'essa distribuzione normale con parametri
. L'integrale della funzione di densità di probabilità della variabile casuale standardizzata
Dato che deve necessariamente valere la condizione
dove anche la variabile casuale
, allora risulta anche
e
è il seguente:
quindi:
ha distribuzione normale standardizzata. Per risolvere questo integrale doppio si
ricorre alle coordinate polari
e
, dove
e
. La matrice Jacobiana
della trasformazione è
,
il cui determinante è pari a
. Sostituendo nell'integrale di cui sopra si
ottiene:
La sua funzione generatrice dei momenti è
Il valore atteso e la varianza (che sono gli unici due parametri di questa variabile casuale) sono appunto μ e σ².
Non essendo possibile esprimere l'integrale della
in forma chiusa mediante funzioni elementari, è necessario
rendere disponibili in forma tabellare i valori della sua funzione di ripartizione. I più usati sono:
68,3%
95,0%
95,5%
99,0%
99,7%
Essendo
=
=
=
=
=
P{
P{
P{
P{
P{
μ
μ
μ
μ
μ
-
σ
1,96 σ
2
σ
2,58 σ
3
σ
<
<
<
<
<
X
X
X
X
X
<
<
<
<
<
μ
μ
μ
μ
μ
+
+
+
+
+
σ
1,96 σ
2
σ
2,58 σ
3
σ
}
}
}
}
}
una funzione simmetrica è sufficiente conoscere la funzione di ripartizione dei valori positivi, per
conoscere pure quella dei valori negativi (e viceversa).
Dalla variabile casuale Normale si possono ottenere altre variabili casuali, come la t di Student, la Chi Quadrato e la
F di Snedecor, nonché le loro "varianti" non centrali (t non centrale, chi quadrato non centrale e F non centrale).
Distribuzione normale
Teoremi
Combinazione lineare di variabili gaussiane
Se
X1, X2, ..., Xn sono n variabili casuali Normali tra di loro indipendenti, ciascuna con valore atteso μi e varianza
σ²i,
allora
la variabile casuale Y = α1X1 + α2X2 + ... + αnXn è a sua volta una variabile casuale Normale con valore atteso
μ = α1μ1 + α2μ2 + ... + αnμn e varianza σ² = α²1σ²1 + α²2σ²2 + ... + α²nσ²n
Altri teoremi: Teorema di Cochran
Relazioni con altre variabili casuali
La Normale come derivazione da altre voci
I teoremi del limite centrale sono una famiglia di teoremi che hanno in comune l'affermazione che la somma
(normalizzata) di un grande numero di variabili casuali è distribuita approssimativamente come una variabile casuale
normale.
Se X è distribuita come una variabile casuale binomiale con n molto grande (per dare un'idea di quanto grande,
possiamo dire che deve essere n>30), e approssimativamente np>10, allora la binomiale può essere approssimata con
una Normale con valore atteso pari a np e varianza uguale a npq: N( np ; npq).
Se X è distribuita come una variabile casuale poissoniana con il parametro λ molto grande (orientativamente λ > 10),
allora la Poissoniana può essere approssimata con una Normale con valore atteso e varianza pari a λ: N( λ ; λ).
Variabili casuali derivate dalla Normale
Date n distribuzioni normali Z1(0;1); Z2(0;1); ... Zn(0;1) con media nulla e varianza unitaria indipendenti tra loro.
allora
χ²n= Z1² + Z2² + .... +Zn²
è una Variabile casuale chi quadro con n gradi di libertà.
Siano Z1, Z2, Z3..., Zn variabili casuali indipendenti distribuite come una Normale con media nulla e varianza
unitaria, e siano inoltre a1, a2, a3..., an delle costanti tali che
allora si indica con χ'² la v.c. chi quadro non centrale con n gradi di libertà costruita come
81
Distribuzione normale
82
Se Z~N(0;1) e X~χ²n, allora T=Z/√X/n è distribuita come una t di Student con n gradi di libertà.
Se Z~N(0;1) e
allora T è una v.c. di Birnbaum-Saunders con i parametri
e
.
La normale nell'inferenza bayesiana
Variabile casuale Gamma come priori coniugati della normale
Nell'ambito dell'inferenza bayesiana si trova la seguente relazione tra la normale e la variabile casuale Gamma.
Se X è distribuita come una variabile casuale normale con parametri μ e 1/θ
ed il parametro θ è distribuito a priori come una variabile casuale Gamma con i parametri a e b
allora il parametro θ è distribuito a posteriori anch'esso come una variabile casuale Gamma, ma con parametri a+1/2
e b+(μ-x)2/2
Priori coniugati normale di una normale
Se X è distribuita come una v.c. normale con parametri m e σ2
e il parametro m è distribuito a priori come una v.c. normale con i parametri μ e σ2
allora il parametro m è distribuito a posteriori anch'esso come una v.c. Normale, ma con parametri
e
Cenni storici
Karl Friedrich Gauss descrisse la Normale studiando il moto dei corpi celesti. Altri la usavano per descrivere
fenomeni anche molto diversi come i colpi di sfortuna nel gioco d'azzardo o la distribuzione dei tiri attorno ai
bersagli. Da qui i nomi curva di Gauss e curva degli errori:
Nel 1835 Lambert-Adolphe-Jacques Quételet pubblicò uno scritto nel quale, fra le altre cose, c'erano i dati
riguardanti la misura del torace di soldati scozzesi e la statura dei militari di leva francesi. Quételet mostrò come tali
dati si distribuivano come una Gaussiana, ma non andò oltre.
Fu Francis Galton a intuire che la curva in questione, da lui detta anche ogiva, poteva essere applicata a fenomeni
anche molto diversi, e non solo ad "errori". Questa idea di curva per descrivere i "dati" in generale portò ad usare il
termine Normale, in quanto rappresentava un substrato normale ovvero la norma per qualsiasi distribuzione presente
in natura.
Nel tentativo di confrontare curve diverse, Galton - in mancanza di strumenti adeguati - si limitò ad usare due soli
parametri: la media e la varianza, dando così inizio alla statistica parametrica.
Distribuzione normale
83
Note
[1] Gale Encyclopedia of Psychology — Normal Distribution (http:/ / findarticles. com/ p/ articles/ mi_g2699/ is_0002/ ai_2699000241)
Voci correlate
•
•
•
•
•
•
•
•
•
•
•
•
•
Statistica
Statistica parametrica
Parametro (statistica)
Funzione di ripartizione della variabile casuale normale
Carl Friedrich Gauss
v.c. binomiale e poissoniana
v.c. χ², t di Student, F di Snedecor
Variabile casuale, variabile casuale continua
Probabilità
Integrale di Gauss, integrale di Eulero (vedi anche Pierre Simon Laplace)
Funzione gaussiana
Teorema di Cochran
Test di Shapiro-Wilk, test statistico per la verifica di normalità di un insieme di valori
• Normale
Altri progetti
•
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Normal
distribution
Funzione di ripartizione della variabile casuale
normale
Funzione di ripartizione
standardizzata
della
variabile
casuale
normale
cioè con media zero e deviazione standard pari a uno, per valori
non negativi (essendo la funzione simmetrica).
Nota che il valore indicato nella casella (X,Y) rappresenta l'area
sottesa dalla funzione gaussiana da "meno infinito" a "X+Y", dove
X e Y rappresentano l'intestazione di riga e colonna.
Fonte: valori calcolati con la funzione pnorm(z) di R (software)
Funzione di densità
Funzione di ripartizione della variabile casuale normale
z
.00
.01
.02
.03
84
.04
.05
.06
.07
.08
.09
0.0 .5000 .5040 .5080 .5120 .5160 .5199 .5239 .5279 .5319 .5359 0.1
.5398
.5438
.5478
.5517
.5557
.5596
.5636
.5675
.5714
.5753
0.2
.5793
.5832
.5871
.5910
.5948
.5987
.6026
.6064
.6103
.6141
0.3
.6179
.6217
.6255
.6293
.6331
.6368
.6406
.6443
.6480
.6517
0.4
.6554
.6591
.6628
.6664
.6700
.6736
.6772
.6808
.6844
.6879
0.5
.6915
.6950
.6985
.7019
.7054
.7088
.7123
.7157
.7190
.7224
0.6
.7257
.7291
.7324
.7357
.7389
.7422
.7454
.7486
.7517
.7549
0.7
.7580
.7611
.7642
.7673
.7704
.7734
.7764
.7794
.7823
.7852
0.8
.7881
.7910
.7939
.7967
.7995
.8023
.8051
.8078
.8106
.8133
0.9
.8159
.8186
.8212
.8238
.8264
.8289
.8315
.8340
.8365
.8389
1.0
.8413
.8438
.8461
.8485
.8508
.8531
.8554
.8577
.8599
.8621
1.1
.8643
.8665
.8686
.8708
.8729
.8749
.8770
.8790
.8810
.8830
1.2
.8849
.8869
.8888
.8907
.8925
.8944
.8962
.8980
.8997
.9015
1.3
.9032
.9049
.9066
.9082
.9099
.9115
.9131
.9147
.9162
.9177
1.4
.9192
.9207
.9222
.9236
.9251
.9265
.9279
.9292
.9306
.9319
1.5
.9332
.9345
.9357
.9370
.9382
.9394
.9406
.9418
.9429
.9441
1.6
.9452
.9463
.9474
.9484
.9495
.9505
.9515
.9525
.9535
.9545
1.7
.9554
.9564
.9573
.9582
.9591
.9599
.9608
.9616
.9625
.9633
1.8
.9641
.9649
.9656
.9664
.9671
.9678
.9686
.9693
.9699
.9706
1.9
.9713
.9719
.9726
.9732
.9738
.9744
.9750
.9756
.9761
.9767
2.0
.9772
.9778
.9783
.9788
.9793
.9798
.9803
.9808
.9812
.9817
2.1
.9821
.9826
.9830
.9834
.9838
.9842
.9846
.9850
.9854
.9857
2.2
.9861
.9864
.9868
.9871
.9875
.9878
.9881
.9884
.9887
.9890
2.3
.9893
.9896
.9898
.9901
.9904
.9906
.9909
.9911
.9913
.9916
2.4
.9918
.9920
.9922
.9925
.9927
.9929
.9931
.9932
.9934
.9936
2.5
.9938
.9940
.9941
.9943
.9945
.9946
.9948
.9949
.9951
.9952
2.6
.9953
.9955
.9956
.9957
.9959
.9960
.9961
.9962
.9963
.9964
2.7
.9965
.9966
.9967
.9968
.9969
.9970
.9971
.9972
.9973
.9974
2.8
.9974
.9975
.9976
.9977
.9977
.9978
.9979
.9979
.9980
.9981
2.9
.9981
.9982
.9982
.9983
.9984
.9984
.9985
.9985
.9986
.9986
3.0
.9987
.9987
.9987
.9988
.9988
.9989
.9989
.9989
.9990
.9990
3.1
.9990
.9991
.9991
.9991
.9992
.9992
.9992
.9992
.9993
.9993
3.2
.9993
.9993
.9994
.9994
.9994
.9994
.9994
.9995
.9995
.9995
3.3
.9995
.9995
.9995
.9996
.9996
.9996
.9996
.9996
.9996
.9997
3.4
.9997
.9997
.9997
.9997
.9997
.9997
.9997
.9997
.9997
.9998
3.5
.9998
.9998
.9998
.9998
.9998
.9998
.9998
.9998
.9998
.9998
3.6
.9998
.9998
.9999
.9999
.9999
.9999
.9999
.9999
.9999
.9999
Funzione di ripartizione della variabile casuale normale
85
Poiché la normale non è integrabile con metodi elementari per sapere la probabilità di un intervallo bisogna
ricondurre la propria normale a quella standard e cercare il valore standardizzato nella tabella.
Per ricondursi alla forma standard bisogna porre
Dove
è la media e
la deviazione standard (o scarto quadratico medio).
L'integrale della normale standard è:
oppure:
dove erf è la funzione degli errori.
Distribuzione t di Student
distribuzione
Funzione di densità di probabilità
Funzione di ripartizione
Parametri
(gradi di libertà)
Supporto
Funzione di densità
Funzione di ripartizione
dove
è la funzione Beta
Distribuzione t di Student
86
Valore atteso
se
non definita altrimenti
Mediana
Moda
Varianza
se
infinita altrimenti
Skewness
se
non definita altrimenti
Curtosi
se
infinita altrimenti
Entropia
dove
è la funzione digamma e
è la funzione Beta
Funz. Gen. dei Momenti
Funz. Caratteristica
[1]
dove
è una funzione di Bessel
In teoria delle probabilità la distribuzione di Student, o t di Student, è una distribuzione di probabilità continua che
governa il rapporto tra due variabili aleatorie, la prima con distribuzione normale e la seconda il cui quadrato ha
distribuzione chi quadrato.
Questa distribuzione interviene nella stima della media di una popolazione che segue la distribuzione normale, e
viene utilizzata negli omonimi test t di Student per la significatività e per ogni intervallo di confidenza della
differenza tra due medie.
Cenni storici
La distribuzione venne descritta nel 1908 da William Sealy Gosset, che pubblicò il suo risultato sotto lo pseudonimo
"Student" perché la fabbrica di birra presso la quale era impiegato vietava ai propri dipendenti di pubblicare articoli
affinché questi non divulgassero segreti di produzione. Il nome distribuzione di Student venne successivamente
introdotto da Ronald Fisher.[2][3]
Definizione
La distribuzione di Student con parametro n (gradi di libertà) governa la variabile aleatoria
dove
standard
e
sono due variabili aleatorie indipendenti che seguono rispettivamente la distribuzione normale
e la distribuzione chi quadrato
con n gradi di libertà.
Distribuzione t di Student
87
Stimatore
La media
e la varianza
di una popolazione
possono essere stimate tramite un suo campione di taglia n,
con gli stimatori
,
.
La variabile aleatoria
segue una distribuzione normale standard,
, mentre la variabile aleatoria
segue una distribuzione chi quadrato con n-1 gradi di libertà,
. Le due variabili aleatorie sono
indipendenti, per il teorema di Cochran.
Senza conoscere la varianza
non è possibile confrontare gli stimatori
e
con
e
, che hanno
distribuzioni di probabilità note. Ciononostante la variabile aleatoria
(ottenuta "sostituendo"
a
nella definizione di
) segue la distribuzione di Student con n-1 gradi di
libertà.
Caratteristiche
La distribuzione di Student con n gradi di libertà è simmetrica, perché lo è la distribuzione normale standard mentre
la distribuzione chi quadrato che funge da "parametro casuale di scala" non produce effetti di distorsione di tale
simmetria.
La sua funzione di densità di probabilità è
,
dove
indica la funzione Gamma e
la funzione Beta.
La sua funzione di ripartizione è
,
dove
è la funzione Beta incompleta regolarizzata e
.
Per
i momenti (semplici o centrali) di ordine k della distribuzione sono
se
è dispari,
se
è pari.
Distribuzione t di Student
88
In particolare, oltre alla speranza matematica
e all'indice di asimmetria
(per
) predetti
dalla simmetria della distribuzione, si trovano:
la varianza
per
;
l'indice di curtosi
per
.
Statistica
Intervallo di confidenza
La distribuzione di Student viene utilizzata per definire degli intervalli di confidenza per la media di una
popolazione, sulla base degli stimatori puntuali
e
della sua media e della sua varianza. Dall'equazione
si ha infatti
.
Scegliendo quindi dei quantili
per la distribuzione di Student con n gradi di libertà, si ha
,
cioè un intervallo di confidenza per la media
con livello di confidenza
è:
.
Qualora si considerino intervalli simmetrici si può utilizzare l'indice
definito da
,
ovvero
,
e si ottiene l'intervallo di confidenza per
con livello di confidenza
.
Altre distribuzioni
La distribuzione di Student con parametro
corrisponde alla distribuzione di Cauchy di parametri
:
entrambe regolano il rapporto
tra due variabili aleatorie indipendenti aventi distribuzione normale standard.
Al tendere di n a infinito la distribuzione di Student con n gradi di libertà converge alla distribuzione normale
standard
.
Se
è una variabile aleatoria con distribuzione t di Student di parametro
distribuzione di Fisher-Snedecor di parametri
.
, allora
segue la
Distribuzione t di Student
89
Tabella dei quantili
La seguente tabella[4] esprime, in funzione del parametro n (riga) e di particolari valori di
per la distribuzione di Student di parametro n:
.
L'ultima riga, indicata con "
", si riferisce ad una distribuzione normale standard.
n\α
0.90
0.95
0.975
0.99
0.995
0.9975
0.999
0.9995
1
3.078 6.314 12.706 31.821 63.657 127.321 318.309 636.619
2
1.886 2.920 4.303
6.965
9.925
14.089
22.327
31.599
3
1.638 2.353 3.182
4.541
5.841
7.453
10.215
12.924
4
1.533 2.132 2.776
3.747
4.604
5.598
7.173
8.610
5
1.476 2.015 2.571
3.365
4.032
4.773
5.893
6.869
6
1.440 1.943 2.447
3.143
3.707
4.317
5.208
5.959
7
1.415 1.895 2.365
2.998
3.499
4.029
4.785
5.408
8
1.397 1.860 2.306
2.896
3.355
3.833
4.501
5.041
9
1.383 1.833 2.262
2.821
3.250
3.690
4.297
4.781
10
1.372 1.812 2.228
2.764
3.169
3.581
4.144
4.587
11
1.363 1.796 2.201
2.718
3.106
3.497
4.025
4.437
12
1.356 1.782 2.179
2.681
3.055
3.428
3.930
4.318
13
1.350 1.771 2.160
2.650
3.012
3.372
3.852
4.221
14
1.345 1.761 2.145
2.624
2.977
3.326
3.787
4.140
15
1.341 1.753 2.131
2.602
2.947
3.286
3.733
4.073
16
1.337 1.746 2.120
2.583
2.921
3.252
3.686
4.015
17
1.333 1.740 2.110
2.567
2.898
3.222
3.646
3.965
18
1.330 1.734 2.101
2.552
2.878
3.197
3.610
3.922
19
1.328 1.729 2.093
2.539
2.861
3.174
3.579
3.883
20
1.325 1.725 2.086
2.528
2.845
3.153
3.552
3.850
21
1.323 1.721 2.080
2.518
2.831
3.135
3.527
3.819
22
1.321 1.717 2.074
2.508
2.819
3.119
3.505
3.792
23
1.319 1.714 2.069
2.500
2.807
3.104
3.485
3.768
24
1.318 1.711 2.064
2.492
2.797
3.091
3.467
3.745
25
1.316 1.708 2.060
2.485
2.787
3.078
3.450
3.725
26
1.315 1.706 2.056
2.479
2.779
3.067
3.435
3.707
27
1.314 1.703 2.052
2.473
2.771
3.057
3.421
3.690
28
1.313 1.701 2.048
2.467
2.763
3.047
3.408
3.674
29
1.311 1.699 2.045
2.462
2.756
3.038
3.396
3.659
30
1.310 1.697 2.042
2.457
2.750
3.030
3.385
3.646
40
1.303 1.684 2.021
2.423
2.704
2.971
3.307
3.551
50
1.299 1.676 2.009
2.403
2.678
2.937
3.261
3.496
60
1.296 1.671 2.000
2.390
2.660
2.915
3.232
3.460
(colonna), i quantili
Distribuzione t di Student
90
100 1.290 1.660 1.984
2.364
2.626
2.871
3.174
3.390
1.282 1.645 1.960
2.326
2.576
2.807
3.090
3.291
Note
[1] Hurst, Simon, The Characteristic Function of the Student-t Distribution (http:/ / wwwmaths. anu. edu. au/ research. reports/ srr/ 95/ 044/ ),
Financial Mathematics Research Report No. FMRR006-95, Statistics Research Report No. SRR044-95
[2] Student (William Sealy Gosset) (Marzo 1908). The probable error of a mean (http:/ / www. york. ac. uk/ depts/ maths/ histstat/ student. pdf).
Biometrika 6 (1): 1–-25 (in (EN)). DOI: 10.1093/biomet/6.1.1 (http:/ / dx. doi. org/ 10. 1093/ biomet/ 6. 1. 1).
[3] Ronald Fisher (1925). Applications of "Student's" distribution (http:/ / digital. library. adelaide. edu. au/ coll/ special/ fisher/ 43. pdf). Metron
5: 90-–104 (in (EN)).
[4] Valori critici calcolati con la funzione qt(p,g) di R.
Voci correlate
•
•
•
•
•
Distribuzione chi quadrato
Distribuzione normale
Test di verifica d'ipotesi
Test t
William Sealy Gosset
Altri progetti
•
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Student's
t-distribution
Collegamenti esterni
• Il test di Student (http://www.dti.unimi.it/fscotti/ita/md_biotec_estrazione/allegati/Student.pdf) di F. Scotti.
• (EN) Eric W. Weisstein, Distribuzione t di Student (http://mathworld.wolfram.com/Studentst-Distribution.
html) su MathWorld.
Distribuzione chi quadrato
91
Distribuzione chi quadrato
Distribuzione
Funzione di densità di probabilità
Funzione di ripartizione
Parametri
(gradi di libertà)
Supporto
Funzione di densità
Funzione di ripartizione
Valore atteso
Mediana
Moda
Varianza
Skewness
Curtosi
Entropia
circa
Distribuzione chi quadrato
92
Funz. Gen. dei Momenti
per
Funz. Caratteristica
In teoria delle probabilità una distribuzione
(chi quadrato o chi quadro) è una distribuzione di probabilità che
descrive la somma dei quadrati di alcune variabili aleatorie indipendenti aventi distribuzione normale standard.
In statistica viene particolarmente utilizzata per l'omonimo test di verifica d'ipotesi (test χ2).
Definizione
La distribuzione
descrive la variabile aleatoria
,
dove
sono variabili aleatorie indipendenti con distribuzione normale standard
. Il parametro k
è detto numero di gradi di libertà.
Storia
Ernst Abbe (1840-1905), un ottico, fu colui che scoprì la χ² analizzando la sommatoria di variabili casuali normali
standardizzate e indipendenti, che produce una nuova variabile casuale, la χ² appunto.[1]
Proprietà
Somma
Per definizione, la somma di due variabili aleatorie indipendenti con distribuzioni χ2(m) e χ2(n) è una variabile
aleatoria con distribuzione χ2(m+n):
Più in generale la somma di variabili aleatorie indipendenti con distribuzioni χ2(k1), ..., χ2(kn), è una variabile
aleatoria con distribuzione χ2(k1+...+kn).
Caratteristiche
Una generalizzazione della distribuzione χ2 è la distribuzione Gamma:
In particolare una variabile aleatoria
con distribuzione
ha
• funzione di densità di probabilità
per x>0,
dove Γ indica la funzione Gamma, che qui assume i valori
con !! che indica il doppio fattoriale;
• funzione di ripartizione
,
dove γ è la funzione
• valore atteso
;
• varianza
;
• simmetria:
• curtosi:
• moda:
.
,
Distribuzione chi quadrato
93
Limite centrale
Per il teorema del limite centrale la distribuzione χ2(k) converge ad una distribuzione normale per k che tende a
infinito. Più precisamente, se
segue la distribuzione χ2, allora la distribuzione di
tende alla distribuzione normale standard
.
Per avere una convergenza più rapida talvolta vengono prese
o
.
Generalizzazioni
La distribuzione χ2 è un caso particolare della legge Γ e ricade nella terza famiglia di distribuzioni di Pearson.
La distribuzione χ2 non centrale è data dalla somma dei quadrati di variabili aleatorie indipendenti
distribuzioni normali ridotte, ma non necessariamente centrate,
aventi
:
Un'altra generalizzazione prevede di considerare una forma quadratica
sul vettore aleatorio
.
Utilizzo in statistica
In statistica la distribuzione χ2 viene utilizzata per condurre il test di verifica d'ipotesi χ2 e per stimare una varianza,
ed è legato alle distribuzioni distribuzione t di Student e distribuzione F di Fisher-Snedecor.
Il caso più comune è quello di varibili aleatorie indipendenti
di legge normale
e media
, dove lo stimatore della varianza
segue la distribuzione
.
Per valori di k superiori a 30 (o a 50) la legge χ2 viene approssimata con una legge normale.
Tabella dei valori critici
La seguente tabella illustra alcuni valori critici più comunemente utilizzati. In corrispondenza dei valori k sulla riga e
α sulla colonna si trova il valore critico
, ovvero il valore per il quale una variabile aleatoria x2 di
legge χ2(k) verifica
.
Distribuzione chi quadrato
94
k 0.001
\
α
0.002
0.005
0.01
0.02
0.05
0.1
0.2
0.5
0.75
0.8
0.9
0.95
0.98
0.99
0.995
0.998
0.999
1 0.000
0.000
0.000
0.000
0.001
0.004
0.016
0.064
0.455
1.323
1.642
2.706
3.841
5.412
6.635
7.879
9.550
10.828
2 0.002
0.004
0.010
0.020
0.040
0.103
0.211
0.446
1.386
2.773
3.219
4.605
5.991
7.824
9.210
10.597 12.429 13.816
3 0.024
0.039
0.072
0.115
0.185
0.352
0.584
1.005
2.366
4.108
4.642
6.251
7.815
9.837
11.345 12.838 14.796 16.266
4 0.091
0.129
0.207
0.297
0.429
0.711
1.064
1.649
3.357
5.385
5.989
7.779
9.488
11.668 13.277 14.860 16.924 18.467
5 0.210
0.280
0.412
0.554
0.752
1.145
1.610
2.343
4.351
6.626
7.289
9.236
11.070 13.388 15.086 16.750 18.907 20.515
6 0.381
0.486
0.676
0.872
1.134
1.635
2.204
3.070
5.348
7.841
8.558
10.645 12.592 15.033 16.812 18.548 20.791 22.458
7 0.598
0.741
0.989
1.239
1.564
2.167
2.833
3.822
6.346
9.037
9.803
12.017 14.067 16.622 18.475 20.278 22.601 24.322
8 0.857
1.038
1.344
1.646
2.032
2.733
3.490
4.594
7.344
10.219 11.030 13.362 15.507 18.168 20.090 21.955 24.352 26.124
9 1.152
1.370
1.735
2.088
2.532
3.325
4.168
5.380
8.343
11.389 12.242 14.684 16.919 19.679 21.666 23.589 26.056 27.877
10 1.479
1.734
2.156
2.558
3.059
3.940
4.865
6.179
9.342
12.549 13.442 15.987 18.307 21.161 23.209 25.188 27.722 29.588
11 1.834
2.126
2.603
3.053
3.609
4.575
5.578
6.989
10.341 13.701 14.631 17.275 19.675 22.618 24.725 26.757 29.354 31.264
12 2.214
2.543
3.074
3.571
4.178
5.226
6.304
7.807
11.340 14.845 15.812 18.549 21.026 24.054 26.217 28.300 30.957 32.909
13 2.617
2.982
3.565
4.107
4.765
5.892
7.042
8.634
12.340 15.984 16.985 19.812 22.362 25.472 27.688 29.819 32.535 34.528
14 3.041
3.440
4.075
4.660
5.368
6.571
7.790
9.467
13.339 17.117 18.151 21.064 23.685 26.873 29.141 31.319 34.091 36.123
15 3.483
3.916
4.601
5.229
5.985
7.261
8.547
10.307 14.339 18.245 19.311 22.307 24.996 28.259 30.578 32.801 35.628 37.697
16 3.942
4.408
5.142
5.812
6.614
7.962
9.312
11.152 15.338 19.369 20.465 23.542 26.296 29.633 32.000 34.267 37.146 39.252
17 4.416
4.915
5.697
6.408
7.255
8.672
10.085 12.002 16.338 20.489 21.615 24.769 27.587 30.995 33.409 35.718 38.648 40.790
18 4.905
5.436
6.265
7.015
7.906
9.390
10.865 12.857 17.338 21.605 22.760 25.989 28.869 32.346 34.805 37.156 40.136 42.312
19 5.407
5.969
6.844
7.633
8.567
10.117 11.651 13.716 18.338 22.718 23.900 27.204 30.144 33.687 36.191 38.582 41.610 43.820
20 5.921
6.514
7.434
8.260
9.237
10.851 12.443 14.578 19.337 23.828 25.038 28.412 31.410 35.020 37.566 39.997 43.072 45.315
21 6.447
7.070
8.034
8.897
9.915
11.591 13.240 15.445 20.337 24.935 26.171 29.615 32.671 36.343 38.932 41.401 44.522 46.797
22 6.983
7.636
8.643
9.542
10.600 12.338 14.041 16.314 21.337 26.039 27.301 30.813 33.924 37.659 40.289 42.796 45.962 48.268
23 7.529
8.212
9.260
10.196 11.293 13.091 14.848 17.187 22.337 27.141 28.429 32.007 35.172 38.968 41.638 44.181 47.391 49.728
24 8.085
8.796
9.886
10.856 11.992 13.848 15.659 18.062 23.337 28.241 29.553 33.196 36.415 40.270 42.980 45.559 48.812 51.179
25 8.649
9.389
10.520 11.524 12.697 14.611 16.473 18.940 24.337 29.339 30.675 34.382 37.652 41.566 44.314 46.928 50.223 52.620
26 9.222
9.989
11.160 12.198 13.409 15.379 17.292 19.820 25.336 30.435 31.795 35.563 38.885 42.856 45.642 48.290 51.627 54.052
27 9.803
10.597 11.808 12.879 14.125 16.151 18.114 20.703 26.336 31.528 32.912 36.741 40.113 44.140 46.963 49.645 53.023 55.476
28 10.391 11.212 12.461 13.565 14.847 16.928 18.939 21.588 27.336 32.620 34.027 37.916 41.337 45.419 48.278 50.993 54.411 56.892
29 10.986 11.833 13.121 14.256 15.574 17.708 19.768 22.475 28.336 33.711 35.139 39.087 42.557 46.693 49.588 52.336 55.792 58.301
30 11.588 12.461 13.787 14.953 16.306 18.493 20.599 23.364 29.336 34.800 36.250 40.256 43.773 47.962 50.892 53.672 57.167 59.703
35 14.688 15.686 17.192 18.509 20.027 22.465 24.797 27.836 34.336 40.223 41.778 46.059 49.802 54.244 57.342 60.275 63.955 66.619
40 17.916 19.032 20.707 22.164 23.838 26.509 29.051 32.345 39.335 45.616 47.269 51.805 55.758 60.436 63.691 66.766 70.618 73.402
45 21.251 22.477 24.311 25.901 27.720 30.612 33.350 36.884 44.335 50.985 52.729 57.505 61.656 66.555 69.957 73.166 77.179 80.077
50 24.674 26.006 27.991 29.707 31.664 34.764 37.689 41.449 49.335 56.334 58.164 63.167 67.505 72.613 76.154 79.490 83.657 86.661
Distribuzione chi quadrato
95
Derivazione
Derivazione della funzione di densità per un grado di libertà
Sia y = x2, dove x è una variabile casuale normalmente distribuita con media nulla e varianza unitaria (x ~ N(0,1)).
Allora,
se
,
mentre,
.
dove
e
sono, rispettivamente, la funzione di densità e la funzione di probabilità cumulata.
Si ha quindi:
.
Derivazione della funzione di densità per due gradi libertà
È possibile derivare la distribuzione con 2 gradi di libertà partendo da quella con un grado.
Siano x e y due variabili casuali indipendenti tali che
e
.
Dall'assunto di indipendenza segue che la loro funzione di probabilità congiunta è:
Siano
e
, abbiamo che:
o
Data la simmetria, possiamo prendere la prima coppia di soluzioni e moltiplicare il risultato per 2.
Lo jacobiano è:
Possiamo quindi passare da
La distribuzione marginale di
a
:
è quindi:
se
Distribuzione chi quadrato
96
Ponendo
, l'equazione diventa:
da cui:
Derivazione della funzione di densità per k gradi di libertà
Un campione di k realizzazioni
di una variabile normale standard è rappresentabile come un punto in uno spazio
k-dimensionale. La distribuzione della somma dei quadrati sarà:
dove
è la funzione di densità di una distribuzione normale standard e
è una superficie k-1-dimensionale
nello spazio k-dimensionale per cui vale:
Tale superficie è una sfera k-1 dimensionale con raggio
.
Poiché Q è costante, può essere portato fuori dall'integrale:
L'integrale non è altro che l'area A della sfera moltiplicata per lo spessore infinitesimo della stessa, ovvero:
.
Sostituendo, notando che
da cui:
, e semplificando otteniamo infine:
Distribuzione chi quadrato
97
Note
[1] Un documento (http:/ / www. jstor. org/ pss/ 2334525) riguardo al lavoro di Abbe
Voci correlate
•
•
•
•
•
•
•
•
•
Distribuzione chi quadrato non centrale
Distribuzione F di Snedecor
Distribuzione normale
Distribuzione t di Student
Ernst Abbe
Teorema centrale del limite
Test chi quadro
Variabili indipendenti
Varianza
Distribuzione di Fisher-Snedecor
Distribuzione di Fisher-Snedecor
Funzione di densità di probabilità
i parametri m ed n sono indicati come d1 e d2
Funzione di ripartizione
i parametri m ed n sono indicati come d1 e d2
Distribuzione di Fisher-Snedecor
98
Parametri
(gradi di libertà)
Supporto
Funzione di densità
con
la funzione Beta)
(con
la funzione Beta incompleta regolarizzata)
Funzione di ripartizione
Valore atteso
se
infinita altrimenti
Mediana
Moda
se
se
Varianza
per
non definita altrimenti
Skewness
Curtosi
Entropia
Funz. Gen. dei Momenti
Funz. Caratteristica
In teoria delle probabilità la distribuzione di Fisher-Snedecor, o F di Snedecor, è una distribuzione di probabilità
continua che regola il rapporto "riscalato" tra due variabili aleatorie che seguono due distribuzioni
.
Viene impiegata nell'analisi della varianza e in generale per l'omonimo test F.
Prende il nome dai matematici George W. Snedecor (statunitense) e Ronald Fisher (britannico).
Definizione
La distribuzione di Fisher-Snedecor con parametri i numeri naturali
governa la variabile aleatoria
,
dove
e
e
sono variabili aleatorie con rispettive distribuzioni chi quadrato con
.
ed
gradi di libertà,
Distribuzione di Fisher-Snedecor
99
Caratteristiche
La distribuzione di Fisher-Snedecor di parametri
ha funzione di densità di probabilità
,
dove
è la funzione Beta.
La sua funzione di ripartizione è data dalla funzione Beta incompleta regolarizzata,
.
La distribuzione ha momenti semplici di ordine
infiniti per
, altrimenti pari a
.
In particolare ha
• speranza matematica pari a
• varianza pari a
• indice di asimmetria pari a
• indice di curtosi pari a
La sua moda è
se
e
se
.
Altre distribuzioni
Per definizione, se una variabile aleatoria
, allora la sua inversa
segue la distribuzione di Fisher-Sneecor di parametri
segue la distribuzione di Fisher-Snedecor di parametri
. Questa
relazione permette di esprimere i quantili di una distribuzione in termini dei quantili dell'altra:
.
Una generalizzazione di questa distribuzione è la distribuzione di Fisher-Snedecor non centrale, per la quale la
variabile aleatoria
nella definizione di
può seguire una distribuzione chi quadrato non centrale.
Se
è una variabile aleatoria con distribuzione t di Student di parametro
di Fisher-Snedecor di parametri
Se
, allora
.
è una variabile aleatoria con distribuzione di Hotelling di parametri
la distribuzione di Fisher-Snedecor di parametri
Se la variabile aleatoria
segue la distribuzione Beta
segue la distribuzione
.
segue la distribuzione di Fisher-Snedecor di parametri
.
, allora
, allora
segue
Distribuzione di Fisher-Snedecor
Voci correlate
• Analisi della varianza
• Distribuzione chi quadrato
• Funzione Beta di Eulero
Collegamenti esterni
(EN) Eric W. Weisstein, Distribuzione di Fisher-Snedecor [1] su MathWorld.
Note
[1] http:/ / mathworld. wolfram. com/ SnedecorsF-Distribution. html
100
101
Cima Coppi
Disuguaglianza di Čebyšëv
La disuguaglianza di Čebyšëv è usata soprattutto nell'ambito della teoria probabilistica e più raramente nell'ambito
di serie di dati reali.
La disuguaglianza venne pubblicata la prima volta nel 1853 da Irenée-Jules Bienaymé e riscoperta
indipendentemente da Pafnutij L'vovič Čebyšëv alcuni anni dopo (pertanto viene anche citata come disuguaglianza
di Bienaymé-Čebyšëv).
Nell'ambito della variabili stocastiche (v.s.) afferma che se la v.s. X ha valore atteso μ e la varianza σ² e λ è un reale
positivo, allora la probabilità che X assuma un valore compreso tra μ-λσ e μ+λσ è maggiore di 1-1/λ².
In altre parole afferma che, dato un carattere di cui sono noti solamente media aritmetica
e deviazione standard
, possiamo conoscere la frequenza relativa massima delle unità che possono avere valori esterni a un intervallo
simmetrico rispetto alla media aritmetica. In altri termini questo teorema ci assicura che, indipendentemente dalla
distribuzione della variabile casuale, la probabilità che questa assuma valori distanti dalla media più di volte la
deviazione standard è al massimo
Espresso con una formula:
che equivale a:[1]
Nell'ambito della statistica descrittiva afferma che almeno il (1-1/λ²)·100 percento dei valori sono compresi tra μ-λσ
e μ+λσ.
Fisz dimostrò che per le variabili dotate di media e varianza non è possibile trovare una disuguaglianza migliore di
quella di Čebyšëv, a meno che non si impongano dei vincoli alla distribuzione della variabile.
Da questa disuguaglianza si deduce che
•
•
•
•
•
almeno il 75% dei valori sono compresi tra μ-2σ e μ+2σ
almeno l'88% dei valori sono compresi tra μ-3σ e μ+3σ
almeno il 93% dei valori sono compresi tra μ-4σ e μ+4σ
almeno il 96% dei valori sono compresi tra μ-5σ e μ+5σ
almeno il 99% dei valori sono compresi tra μ-10σ e μ+10σ
indipendentemente da come sono distribuiti i valori.
Disuguaglianza di Čebyšëv
Dimostrazione probabilistica
Per ogni evento A, sia IA la variabile casuale indicatore di A, cioè IA è uguale a 1 se l'evento A accade e 0 altrimenti.
Allora si ha:
Dalla disuguaglianza di Markov segue poi:
Si ha quindi:
Note
[1] Si ha infatti:
e:
da cui:
Bibliografia
• A. Papoulis (1991), Probability, Random Variables, and Stochastic Processes, 3rd ed. McGraw-Hill. ISBN
0-07-100870-5. pp. 113–114.
• G. Grimmett and D. Stirzaker (2001), Probability and Random Processes, 3rd ed. Oxford. ISBN 0-19-857222-0.
Section 7.3.
Voci correlate
•
•
•
•
•
Disuguaglianza di Cantelli, che è la corrispondente disuguaglianza nel caso di una sola coda.
Disuguaglianza di Bernstein, nel caso di v.c. limitate
Disuguaglianza di Hoeffding, nel caso di v.c. limitate, con varianza ignota
Statistica, Probabilità
Deviazione standard, Intervallo di confidenza
102
Disuguaglianza di Markov
103
Disuguaglianza di Markov
In teoria della probabilità e statistica, la disuguaglianza di Markov afferma che, per una variabile casuale
non
negativa il cui valore atteso esiste:
Questa disuguaglianza permette di stabilire un limite superiore al valore di probabilità dalla sola conoscenza del
valore atteso E[x], a condizione che la variabile casuale sia definita non negativa.
La disuguaglianza di Markov è anche utilizzata nella dimostrazione della disuguaglianza di Čebyšëv.
Dimostrazione
Si definisca la variabile casuale:
Chiaramente,
. Inoltre:
Voci correlate
• Andrej Andreevič Markov (1856)
• Modello di Markov nascosto
Legge dei grandi numeri
La legge dei grandi numeri, detta anche legge empirica del caso oppure teorema di Bernoulli (in quanto la sua
prima formulazione è dovuta a Jakob Bernoulli), descrive il comportamento della media di una sequenza di n
variabili casuali indipendenti e caratterizzate dalla stessa distribuzione di probabilità (n misure della stessa
grandezza, n lanci della stessa moneta ecc.) al tendere ad infinito della numerosità della sequenza stessa (n). In altre
parole, grazie alla legge dei grandi numeri, possiamo fidarci che la media che calcoliamo a partire da un numero
sufficiente di campioni sia sufficientemente vicina alla media vera.
In termini generici, per la legge dei grandi numeri si può dire:
• che la media della sequenza è un'approssimazione, che migliora al crescere di n, della media della distribuzione;
• e che, viceversa, si può prevedere che sequenze siffatte mostreranno una media tanto più spesso e tanto più
precisamente prossima alla media della distribuzione quanto più grande sarà n.
Un caso particolare di applicazione della legge dei grandi numeri è la previsione probabilistica della proporzione di
successi in una sequenza di n realizzazioni indipendenti di un evento E: per n che tende a infinito, la proporzione di
successi converge alla probabilità di E (vedi esempio).
Legge dei grandi numeri
104
Legge forte dei grandi numeri
Se, data una successione di variabili casuali
indipendenti e identicamente distribuite con media
, si considera la media calcolata
la legge (forte) dei grandi numeri afferma che
ossia la media campionaria converge quasi certamente alla media comune delle
.
Legge debole dei grandi numeri
Se, data una successione di variabili casuali
aventi la stessa media
, la stessa varianza finita
e indipendenti, si considera la media campionaria
la legge (debole) dei grandi numeri afferma che per ogni
:
ossia la media campionaria converge in probabilità alla media comune delle
.
Esempio
Supponiamo di avere un evento (come il fatto che lanciando un dado esca il sei) con probabilità sconosciuta
(sconosciuta perché il dado potrebbe essere truccato, o semplicemente difettoso: non possiamo saperlo in anticipo).
Eseguendo n lanci consecutivi otteniamo una stima della probabilità di fare sei con quel dado, data da
dove le X della somma rappresentano l'esito dei lanci e valgono uno se in quel lancio è uscito il sei, o zero se è uscito
un altro numero. La legge dei grandi numeri afferma semplicemente che, tante più prove usiamo per calcolare la
stima, tanto più questa sarà vicina, probabilmente, alla probabilità reale dell'evento p.
Se la stima X(n) che calcoleremo sarà molto vicina a un sesto, che è la probabilità teorica che esca il sei per un dado
perfetto, potremo essere ragionevolmente certi che il dado in questione non è polarizzato per il sei (per essere sicuri
che il dado non sia truccato in nessun modo dovremmo ripetere il test anche per gli altri cinque numeri). Che cosa
significhi ragionevolmente sicuri dipende da quanto vogliamo essere precisi nel nostro test: con dieci prove
avremmo una stima grossolana, con cento ne otterremmo una molto più precisa, con mille ancora di più e così via: il
valore di n che siamo disposti ad accettare come sufficiente dipende dal grado di casualità che riteniamo necessario
per il dado in questione.
Legge dei grandi numeri
105
Con maggior rigore
Sia
una successione di spazi di probabilità. Si consideri lo spazio prodotto
e in
esso una successione bernoulliana di eventi (stocasticamente indipendenti e con probabilità costante p)
. Assegnato un elemento
si definisce la frequenza di successo in n prove
, dove
indica il numero di successi ottenuti in n prove.
Legge debole dei grandi numeri
Dimostrazione
Nelle condizioni sopra enunciate, si vuole dimostrare che:
.
Fissato
, si consideri la disuguaglianza di Bienaymé-Čebyšëv:
;
poiché
è distribuito in modo binomiale, il suo valore atteso è
,
e la sua varianza è
;
abbiamo allora che il valore atteso e la varianza di
sono, rispettivamente:
,
.
Sostituendo nella disuguaglianza, si ottiene:
,
e, passando al limite per
,
Ma la probabilità non può essere negativa:
,
da cui la tesi.
Osservazioni
La legge debole dei grandi numeri non assicura che, comunque scelto
il
valore
si
mantenga
minore
sia
si
trova:
assicurare che
o
uguale
, quasi certamente a partire da un certo
a
,
ovvero
che
-trascurabile. Infatti, esplicitando la definizione di limite,
ma
non diverga per
.
l'insieme
niente
sembra
Legge dei grandi numeri
106
Legge forte dei grandi numeri
Ciò è invece assicurato, nelle medesime condizioni, dalla proposizione:
che,
in effetti, implica sia
sia la legge debole dei
grandi numeri.
Dimostrazione delle due implicazioni
la legge forte può essere formulata, esplicitando la Definizione di limite e passando al complementare, come:
che a sua volta è equivalente, trasformando il quantificatore esistenziale in un'unione, a:
e per monotonia di
da cui, per confronto, la prima implicazione.
Trasformando anche gli altri due quantificatori in operazioni insiemistiche, si ha:
ma, si è in presenza dell'intersezione di una successione non crescente di insiemi, dunque per monotonia di
, si ha:
e ancora:
da cui anche la seconda implicazione, ricordando che questo è valido per ogni
.
Dimostrazione della legge forte
si è già visto che l'asserto è equivalente a:
Discretizzando, come consueto nel caso dei limiti, si ha:
Per subadditività
Dunque, se quest'ultima espressione sarà nulla, si sarà dimostrata la legge forte. Essendo
dovrà avere:
non negativa, si
Legge dei grandi numeri
107
si vuole mostrare che questo è vero considerando la sottosuccessione
. Si vuole applicare il lemma di
Borel-Cantelli, pertanto si verifica che converga l'espressione
Per la disuguaglianza di Bienaymé-Čebyšëv si trova:
da cui:
Ma questa serie è notoriamente convergente. Pertanto,
Si noti ora che ogni numero naturale n è compreso tra due quadrati consecutivi:
da cui
si noti ora che
è la massima differenza possibile tra
e
, da cui:
pertanto:
ora però si ha
passando al limite (
certamente:
il che conclude la dimostrazione.
Voci correlate
• Campionamento statistico
• Statistica, probabilità
• Distribuzione di Bernoulli
, dunque:
)e applicando il risultato ottenuto per
, si ottiene che, quasi
Teoremi centrali del limite
108
Teoremi centrali del limite
I teoremi centrali del limite sono una famiglia di teoremi di convergenza debole nell'ambito della teoria della
probabilità. A tutti i teoremi è comune l'affermazione che la somma (normalizzata) di un grande numero di variabili
casuali è distribuita approssimativamente come una variabile casuale normale standard. Ciò spiega l'importanza che
quest'ultima variabile casuale assume nell'ambito della statistica e della teoria della probabilità in particolare.
Jarl Waldemar Lindeberg dimostrò nel 1922 il teorema del limite centrale nell'articolo "Eine neue Herleitung des
Exponentialgesetzes in der Wahrscheinlichkeitsrechnung", dimostrato successivamente e autonomamente da Alan
Turing.
Infatti il teorema, in parole povere, afferma che se si ha una somma di variabili aleatorie
indipendenti e
2
identicamente distribuite (con densità uguali) con media μ e varianza σ , allora indipendentemente dalla forma
distributiva di partenza, al tendere della dimensione campionaria a infinito la somma tende a distribuirsi come una
variabile casuale normale. In formule:
per
e standardizzando:
dove
è la v.c. media campionaria.
Teorema centrale del limite di Lindeberg-Lévy
La più nota formulazione di un teorema centrale del limite è quella dovuta a Lindeberg e Lévy; si consideri una
successione di variabili casuali
indipendenti e identicamente distribuite, e in particolare tali che esistano,
finiti, i loro momenti di ordine primo e secondo, e sia in particolare
per ogni
e
. Definita allora la nuova variabile casuale:
dove
è la media aritmetica degli
, si ha che
converge in distribuzione a una variabile casuale
normale avente valore atteso 0 e varianza 1, ossia la distribuzione di
, al limite per
coincide con quella di una tale variabile casuale normale.
La dimostrazione del teorema fa uso della nozione di funzione caratteristica della
che tende a infinito,
, che altro non è che la
trasformata di Fourier della funzione di densità (o di massa di probabilità per variabili casuali discrete) della
dove
è l'unità immaginaria, e
denota la funzione di densità di probabilità di
dove l'ultima uguaglianza discende dalla indipendenza degli
osservi che
:
. Nel caso presente, si ha:
; per semplicità di notazione sia
; si
. Si consideri quindi lo sviluppo di Taylor, centrato in
Teoremi centrali del limite
109
del valore atteso:
Segue che:
Ma applicando il limite notevole:
, si ha:
Nell'espressione sopra si riconosce la funzione caratteristica di una variabile casuale normale standard, così che la
funzione di densità, e dunque la funzione di ripartizione, della
, converge a quella di una normale standard al
tendere di
a infinito, come volevasi dimostrare.
Teorema di De Moivre-Laplace
Un corollario importante e usato frequentemente del teorema Centrale del Limite è il seguente:
Se
è una v.c. binomiale, che possiamo vedere come somma di
v.c. bernoulliane. Allora per
:
ovvero una normale con media
e varianza
.
Se standardizziamo:
Questo teorema è molto utile nel caso si vogliano valori approssimati del numero di successi nella ripetizione di un
esperimento indipendente dagli esiti passati, visto che la variabile aleatoria binomiale risulta spesso difficile da
calcolare con numeri elevati. L'approssimazione è tanto migliore quanto più è alto il numero di esperimenti.
Dimostrazione
Il teorema di De Moivre-Laplace può essere dimostrato più facilmente del teorema Centrale del Limite, con una
prova per la quale è necessaria la conoscenza degli sviluppi di Taylor e dell'Approssimazione di Stirling. Per il
fattoriale di un numero n sufficientemente grande vale la formula di Stirling, secondo cui:
o, equivalentemente:
La funzione di densità di
si potrà scrivere allora come:
Teoremi centrali del limite
110
Sia ora
and and Consideriamo dapprima il primo termine tra parentesi quadre nell'ultima uguaglianza:
Teoremi centrali del limite
E quindi il secondo termine tra parentesi quadrate:
Per cui si ha che:
Consideriamo quindi il logarimo naturale che appare nell'ultima uguaglianza.
Utilizzando le espansioni di Taylor seguenti:-
si ha:
e
111
Teoremi centrali del limite
112
per cui
Possiamo ignorare i termini di grado maggiore del secondo, essendo
proporzionale a
che tende a 0 al
crescere di .
Dunque, elevando al quadrato e dividendo per due x, si ha:
Quindi,
che è esattamente l'asserto che volevamo provare - il termine a destra è una distribuzione normale con media
varianza
.
e
Teoremi centrali del limite
113
Voci correlate
•
•
•
•
•
•
•
•
•
•
Legge dei grandi numeri
Statistica
Probabilità
Variabile casuale
Variabile casuale normale
Jarl Waldemar Lindeberg
Alan Turing
Disuguaglianza di Berry-Esseen
Teorema di Laplace-Lyapunov
Macchina di Galton
Altri progetti
•
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Central
limit theorem
Processo markoviano
Un processo stocastico markoviano o processo di Markov è un processo stocastico nel quale la probabilità di
transizione che determina il passaggio ad uno stato di sistema dipende unicamente dallo stato di sistema
immediatamente precedente (proprietà di Markov) e non dal come si è giunti a tale stato (in quest'ultima ipotesi si
parla di processo non markoviano).
Tale processo prende il nome dal matematico russo Andrej Andreevič Markov che per primo ne sviluppò la teoria.
Modelli di tipo markoviano vengono anche utilizzati nel progetto di reti di telecomunicazioni; la teoria delle code
che ne consegue trova applicazione in molti ambiti: dalla fila alle poste ai pacchetti in coda in un router.
Formalmente questo può essere scritto come
Questa è detta proprietà di Markov, o condizione di "assenza di memoria".
Catene di Markov
Una catena di Markov è un processo di Markov con spazio degli stati discreto, quindi si tratta di un processo
stocastico che assume valori in uno spazio discreto e che gode della proprietà di Markov. L'insieme di spazio
degli stati può essere finito o infinito (numerabile). Nel primo caso si parla di catena di Markov a stati finiti. Una
catena di Markov può essere tempo-continua o tempo-discreta, in base all'insieme di appartenenza della variabile
tempo (continuo o discreto).
Formalmente, una catena di Markov è un processo stocastico Markoviano caratterizzato da un parametro
da un insieme
di stati e da una funzione probabilità di transizione
Essendo un processo Markoviano,
.
gode come già detto della proprietà:
Nel caso di catena di Markov a tempo discreto (cioè con l'insieme
semplice:
,
discreto), si può assumere la notazione più
Processo markoviano
114
Catene di Markov omogenee
Una catena di Markov omogenea è un processo markoviano nel quale la probabilità di transizione al tempo
non
dipende dal tempo stesso, ma soltanto dallo stato del sistema al tempo immediatamente precedente
. In
altre parole, la probabilità di transizione è indipendente dall'origine dell'asse dei tempi e quindi dipende soltanto
dalla distanza tra i due istanti temporali.
Per le catene omogenee vale la condizione
Più in generale si dimostra che in una catena di Markov omogenea la probabilità di transizione da uno stato a un altro
in passi è costante nel tempo:
I sistemi reali che possono essere modellati con catene di Markov omogenee sono rari: è sufficiente pensare al
sistema "tempo atmosferico" per capire come la probabilità di transizione da uno stato (per esempio "sole") ad un
altro stato (per esempio "pioggia") dipende dalla stagione, quindi non è possibile modellare questo sistema come
catena di Markov omogenea. Tuttavia, restringendo l'analisi del sistema ad un determinato intervallo di tempo, il
comportamento di può considerare omogeneo: in questo caso, l'intervallo di tempo potrebbe essere una singola
stagione.
Rappresentazione
Una catena di Markov omogenea a stati finiti, in cui l'insieme
degli stati del sistema è finito e ha
può essere rappresentata mediante una matrice di transizione
elementi,
ed un vettore di probabilità iniziale
.
Gli elementi di
rappresentano le probabilità di transizione tra gli stati della catena: una catena che si trovi nello
stato i ha probabilità
di passare allo stato j in un passo immediatamente successivo. In particolare gli elementi
sulla diagonale principale di
,
indicano le probabilità di rimanere sullo stesso stato i. Il vettore
le probabilità che inizialmente la catena di Markov si trovi in ciascuno degli
omogenea è univocamente definita dalla coppia
Le probabilità che ad un tempo
probabilità
dove
indica la trasposta del vettore
stati. Una catena di Markov
.
il sistema si trovi in ognuno degli
), in questo caso sono date dal vettore
stati (se al tempo
ha la distribuzione di
così definito:
.
Dalla definizione assiomatica della probabilità discendono le seguenti proprietà per la matrice
:
•
•
.
La seconda proprietà equivale a richiedere che la somma degli elementi su una riga sia uguale a 1.
Per esempio,
e
definisce
possono essere i seguenti:
Nel caso di una catena di Markov omogenea a stati discreti si può invece adottare la notazione sintetica:
dove (n) non è da intendersi come un esponente bensì come un indice.
Processo markoviano
115
Si ha quindi
.
Si hanno le seguenti proprietà:
•
•
.
Catene di Markov aperiodiche
Il periodo di uno stato
di una catena di Markov a stati discreti (con
finito o infinito numerabile) è
definito come il minimo numero di step temporali affinché vi sia una probabilità diversa da zero di tornare sullo
stesso stato, partendo dallo stato al tempo
. Formalmente il periodo
è definito come segue:
dove MCD indica il massimo comune divisore.
Nel caso di una catena di Markov omogenea a stati finiti con un numero
matrice
di stati, rappresentabile quindi con una
, la definizione si può riformulare così:
.
Lo stato
è detto aperiodico se il suo periodo è uguale a 1.
Una catena di Markov è detta aperiodica se tutti i suoi stati sono aperiodici, altrimenti è detta periodica.
Catene di Markov irriducibili
Una catena di Markov a stati discreti è detta irriducibile se partendo da ogni stato c'è una probabilità maggiore
di zero di raggiungere ogni altro stato . Formalmente, una catena di Markov è irriducibile se:
.
Distribuzioni stazionarie
Data una catena di Markov omogenea a stati discreti, una sua distribuzione stazionaria di probabilità (detta anche
distribuzione di equilibrio)
è una distribuzione discreta di probabilità che soddisfa le
seguenti:
•
•
•
.
Euristicamente, una distribuzione stazionaria è una distribuzione di probabilità che si mantiene costante all'evolversi
nel tempo della catena di Markov.
L'importanza delle distribuzioni stazionarie per le catene di Markov omogenee a stati discreti è data dai seguenti
teoremi:
• Il teorema di esistenza e unicità afferma che data una catena di Markov omogenea a stati discreti, con probabilità
di transizione
e spazio degli stati , se la catena di Markov è irriducibile allora esiste un'unica distribuzione
stazionaria
per la catena di Markov.
• Il teorema della convergenza afferma che data una catena di Markov omogenea a stati discreti, con probabilità di
transizione
e spazio degli stati , se la catena di Markov è irriducibile ed aperiodica la distribuzione di
probabilità
al tempo
, converge alla distribuzione stazionaria
probabilità
scelta. Si ha cioè
per ogni distribuzione iniziale di
Processo markoviano
116
.
La convergenza di una catena di Markov a una distribuzione stazionaria, e la possibilità di costruire una catena con
una distribuzione stazionaria scelta sono alla base del funzionamento dell'algoritmo di Metropolis-Hastings.
Catene di Markov ergodiche
Una catena di Markov si definisce ergodica se e solo se per ogni istante iniziale
probabilità
esiste ed è indipendente da
e da
e per ogni condizione iniziale di
, il limite della probabilità per tempi infiniti
.
Applicazioni
Il motore di ricerca Google assegna un valore all'importanza di un sito web tramite l'algoritmo PageRank:
quest'ultimo si basa sull'assegnare una probabilità di transizione da un sito web A a un sito B basata sulla quantità di
link che da A conducono a B. Conoscendo la probabilità di transizione è possibile ottenere la distribuzione
stazionaria di probabilità della catena di Markov formata da tutti i siti web. La distribuzione stazionaria assegna un
valore nell'intervallo [0,1] ad ogni sito (corrispondente alla quantità media di tempo spesa sul sito da un gran numero
di utenti dopo un tempo tendente a infinito): tale valore, opportunamente riscalato, costituisce il Page Rank del sito.
Bibliografia
• (EN) Olle Häggström (2002), Finite Markov Chains and Algorithmic Applications, Cambridge University press,
ISBN 0-521-81357-3
Voci correlate
•
•
•
•
Processo stocastico
Variabile casuale
Processo di Wiener
Modello di Markov nascosto
• Algoritmo di Metropolis-Hastings
• N-gramma
• Teoria ergodica
117
Pignoni
Calcolo combinatorio
Il calcolo combinatorio è il termine che denota tradizionalmente la branca della matematica che studia i modi per
raggruppare e/o ordinare secondo date regole gli elementi di un insieme finito di oggetti. Il calcolo combinatorio si
interessa soprattutto di contare tali modi, ovvero le configurazioni e solitamente risponde a domande quali "Quanti
sono...", "In quanti modi...", "Quante possibili combinazioni..." eccetera.
Più formalmente, dato un insieme S di n oggetti si vuole contare le configurazioni che possono assumere k oggetti
tratti da questo insieme. Prima di affrontare un problema combinatorio bisogna precisare due punti importanti:
• Se l'ordinamento è importante, ovvero se due configurazioni sono le stesse a meno di un riordinamento ({x,y,z} è
uguale a {z,x,y}?)
• Se si possono avere più ripetizioni di uno stesso oggetto, ovvero se uno stesso oggetto dell'insieme può o meno
essere riusato più volte all'interno di una stessa configurazione.
Permutazioni
Permutazioni semplici (senza ripetizioni)
Una permutazione di un insieme di oggetti è una presentazione ordinata, cioè una sequenza, dei suoi elementi nella
quale ogni oggetto viene presentato una ed una sola volta. Per contare quante siano le permutazioni di un insieme
con n oggetti, si osservi che il primo elemento della configurazione può essere scelto in n modi diversi, il secondo in
(n-1), il terzo in (n-2) e così via sino all'ultimo che potrà essere preso in un solo modo essendo l'ultimo rimasto.
Dunque, indicando con Pn il numero delle possibili permutazioni di un insieme di n elementi, si ottiene che esse sono
esattamente n! (n fattoriale):
Ad esempio le permutazioni degli elementi dell'insieme {a,b,c} sono 3! = 6: abc, bac ,bca, cab, cba, acb. Un altro
esempio può essere il seguente: In quanti modi possibili possiamo anagrammare la parola -ATRIO-, contando anche
le parole prive di significato: ATRIO n=5; P5= 5 * 4 * 3 * 2 * 1 = 120 modi di anagrammare la parola ATRIO. N.B:
nella parola ATRIO nessuna lettera si ripete.
Per completare meglio la definizione di fattoriale fissiamo anche i valori seguenti:
1! = 1 e 0! = 1.
Permutazioni con ripetizioni
In alcuni casi un insieme può contenere elementi che si ripetono. In questo caso alcune permutazioni di tali elementi
saranno uguali tra loro. Indicando con k1, k2 fino a kr il numero di volte che si ripetono rispettivamente gli elementi
1, 2 fino a r, dove r ≤ n, le permutazioni uniche (non ripetute) divengono:
Si tratta, infatti, di dividere il numero delle distinte permutazioni di n oggetti per il numero delle permutazioni di k1!
presenze di uno stesso elemento, tutte uguali tra loro, poi per il numero delle permutazioni di k2! presenze di uno
stesso elemento, ecc.
Calcolo combinatorio
La formula vale in realtà per qualsiasi permutazione, anche senza ripetizioni di elementi. Infatti, se assumiamo k1, k2
fino a kr uguali ad 1 (cioè gli elementi si ripetono una sola volta), otteniamo esattamente la formula delle
permutazioni semplici, perché si ha:
Ad esempio: In quanti modi possiamo anagrammare la parola FARFALLA.
Le lettere contenute nella parola sono n=8; gli elementi che si ripetono sono “F” (k1=2) ; “A” (k2=3); “L” (k3=2)
Utilizzando la formula, avremo:
Dismutazioni
Sono dette dismutazioni le permutazioni prive di punti fissi, con formula:
Disposizioni
Disposizioni semplici (senza ripetizioni)
Una disposizione semplice di lunghezza k di elementi di un insieme S di n oggetti, con k ≤ n, è una presentazione
ordinata di k elementi di S nella quale non si possono avere ripetizioni di uno stesso oggetto. Per avere il numero di
queste configurazioni si considera che il primo componente di una tale sequenza può essere scelto in n modi diversi,
il secondo in (n-1) e così via, sino al k-esimo che può essere scelto in (n-k+1) modi diversi. Pertanto il numero Dn,k
di disposizioni semplici di k oggetti estratti da un insieme di n oggetti è dato da:
Ad esempio le disposizioni semplici di lunghezza 2 degli elementi dell'insieme {1,2,3,4,5} sono 5!/(5-2)! = 5!/3! =
120/6 = 20: 12, 13, 14, 15, 21, 23, 24, 25, 31, 32, 34, 35, 41, 42, 43, 45, 51, 52, 53, 54.
Si osserva che le permutazioni sono casi particolari delle disposizioni semplici: le permutazioni di un insieme di n
oggetti sono le disposizioni semplici di tali oggetti di lunghezza n. In effetti per il loro numero:
Disposizioni con ripetizioni
Una presentazione ordinata di elementi di un insieme nella quale si possono avere ripetizioni di uno stesso elemento
si dice disposizione con ripetizioni. Cerchiamo il numero delle possibili sequenze di k oggetti estratti dagli elementi
di un insieme di n oggetti, ognuno dei quali può essere preso più volte. Si hanno n possibilità per scegliere il primo
componente, n per il secondo, altrettante per il terzo e così via, sino al k-esimo che completa la configurazione. Il
numero cercato è pertanto:
Ad esempio le disposizioni con ripetizione di lunghezza 2 degli elementi di {1,2,3,4,5} sono 52 = 25: Si osserva che
può anche essere k > n
118
Calcolo combinatorio
119
Combinazioni
Combinazioni semplici (senza ripetizioni)
Si chiama combinazione semplice una presentazione di elementi di un insieme nella quale non ha importanza
l'ordine dei componenti e non si può ripetere lo stesso elemento più volte. La collezione delle combinazioni di k
elementi estratti da un insieme S di n oggetti distinti si può considerare ottenuta dalla collezione delle disposizioni
semplici di lunghezza k degli elementi di S ripartendo tali sequenze nelle classi delle sequenze che presentano lo
stesso sottoinsieme di S e scegliendo una sola sequenza da ciascuna di queste classi. Ciascuna delle suddette classi di
sequenza di lunghezza k contiene k! sequenze, in quanto accanto a una sequenza σ si hanno tutte e sole quelle
ottenibili permutando i componenti della σ. Quindi il numero delle combinazioni semplici di n elementi di lunghezza
k si ottiene dividendo per k! il numero delle disposizioni semplici di n elementi di lunghezza k:
Di solito tra le diverse disposizioni semplici di una classe si sceglie come combinazione rappresentativa la sequenza
nella quale i componenti compaiono in ordine crescente (tutti gli insiemi finiti possono avere gli elementi ordinati
totalmente, ovvero associati biunivocamente ai primi interi positivi).
Ad esempio le combinazioni semplici di lunghezza 4 degli elementi di {1,2,3,4,5,6} sono 6!/(4!2!) = 15: 1234, 1235,
1236, 1245, 1246, 1256, 1345, 1346, 1356, 1456, 2345, 2346, 2356, 2456, 3456.
Combinazioni con ripetizioni
Quando l'ordine non è importante ma è possibile avere componenti ripetute si parla di combinazioni con
ripetizione. Il numero di combinazioni con ripetizione di n oggetti di classe k è uguale a quello delle combinazioni
senza ripetizione di n+k-1 oggetti di classe k ed è quindi uguale a:
.
Ad esempio, vi sono
modi di distribuire a 2 bambini distinguibili 4 caramelle indistinguibili,
contando anche i casi in cui uno dei bambini non riceve nessuna caramella: 0-4, 1-3, 2-2, 3-1, 4-0.
Equivalentemente, le combinazioni con ripetizioni informano sul numero di possibili n-ple di addendi non negativi la
cui somma sia k (considerando diverse n-ple in cui eguali addendi compaiano in ordine differente); nel suddetto
esempio, sono mostrate le cinque diverse duple di somma 4. Inoltre, le combinazioni con ripetizioni per n oggetti di
classe k rappresentano il numero delle derivate parziali di ordine k calcolabili per una funzione a n variabili.
Voci correlate
•
•
•
•
•
•
Combinatoria
Permutazione
Disposizione
Combinazione
Dismutazione (matematica)
Binomio di Newton
Calcolo combinatorio
120
Altri progetti
•
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/
Category:Combinatorics
Coefficiente binomiale
Il coefficiente binomiale è definito da
(dove n! è il fattoriale di n) e può essere calcolato anche facendo ricorso al triangolo di Tartaglia. Alla voce
Combinazione è dimostrato che esso fornisce il numero delle combinazioni semplici di n elementi di classe k.
Per esempio:
è il numero di combinazioni di 5 elementi presi 3 alla volta.
Proprietà
Il coefficiente binomiale ha le seguenti proprietà:
•
•
•
•
, ovvero:
(proprietà che permette di costruire i coefficienti binomiali con il triangolo di Tartaglia)
•
Estensioni
Si può estendere il coefficiente binomiale al caso che k sia negativo, oppure maggiore di n, ponendo:
oppure
Si può anche estendere il coefficiente ai numeri reali. A tale scopo, può convenire iniziare con l'osservazione che il
coefficiente binomiale è anche il rapporto tra il numero delle funzioni iniettive da un insieme di cardinalità k in uno
di cardinalità n (ovvero il numero delle disposizioni semplici di n oggetti di classe k) ed il numero delle permutazioni
di k oggetti:
Si può porre:
Coefficiente binomiale
ad esempio,
Con tale convenzione, si ha:
ad esempio:
Voci correlate
•
•
•
•
Coefficiente multinomiale
Coefficiente binomiale simmetrico
Teorema binomiale
Fattoriale
•
•
•
•
Calcolo combinatorio, Combinazione, Permutazione
Probabilità
Variabile casuale binomiale
Statistica
Altri progetti
•
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Binomial
coefficients
121
Teorema binomiale
122
Teorema binomiale
In algebra il teorema binomiale (o anche formula di Newton, binomio di Newton e sviluppo binomiale) esprime
lo sviluppo della potenza n-esima di un binomio qualsiasi con la formula seguente:
in cui il fattore
rappresenta il coefficiente binomiale ed è sostituibile con
. Tali coefficienti sono
peraltro gli stessi che si trovano nel noto triangolo di Tartaglia.
Lo sviluppo vale per ogni coppia di numeri reali o complessi, ma più in generale vale in ogni anello commutativo.
Come esempio di applicazione della formula, riportiamo i casi piccoli, n = 2, n = 3 ed n = 4:
Nel caso in cui n sia un numero reale o complesso, la somma finita è sostituito da una serie infinita. Questa formula
generalizzata, nel caso di n reale positivo, fu realizzata da Isaac Newton (da cui il nome).
Esposizione
È possibile, secondo il teorema, espandere una qualunque potenza intera di (a + b) in una sommatoria nella forma
dove
rappresentano i coefficienti binomiali. Utilizzando la notazione di sommatoria, la stessa formula può
essere scritta:
Una variante di questa formula binomiale può essere ottenuta sostituendo 1 ad "a" e "a" a "b", considerando quindi
una sola variabile. In questa forma, si ha:
o, in maniera equivalente,
Teorema binomiale
123
Prima dimostrazione (induttiva)
Il teorema binomiale può essere dimostrato per induzione. Infatti è possibile introdurre per tale teorema un passo
base per cui esso risulta banalmente vero
e provare con il passo induttivo la veridicità del teorema per un esponente n qualsiasi. Infatti presa per corretta
l'espressione
sicuramente vera per
+1, si ha
moltiplicando la sommatoria per
si ha
da cui, essendo
ed inoltre
si ha che, utilizzando nel primo passaggio una nota proprietà del coefficiente binomiale
essendo infine
Teorema binomiale
124
e
si ha che
e si ottiene l'espressione formale dello sviluppo della potenza successiva del binomio
che conferma la tesi.
Seconda dimostrazione (combinatoria)
Se scriviamo
come il prodotto
con n fattori, è evidente che il numero delle volte in cui compare nello sviluppo il termine
di combinazioni che si possono ottenere prendendo
che è dato proprio da
volte
e
volte
è pari al numero
dai fattori del prodotto, numero
.
Poiché per la proprietà distributiva il prodotto è dato dalla somma di questi termini al variare di
da
a
, si ha
subito la tesi.
Caso di esponente generale
Una dimostrazione possibile del caso
è attraverso le serie di Taylor.
Nella pratica si usano spesso solo i primi due termini della serie, ossia
dove il resto
o(x) indica un infinitesimo di ordine superiore al primo.
Lo sviluppo completo è
,
dove
è il coefficiente binomiale generalizzato, dato da
.
Teorema binomiale
125
Dimostrazione
Lo sviluppo attorno all'origine della funzione
è
e, poiché
si ottiene
che è la formula di cui sopra. Troncando la serie al k-esimo termine, l'errore che si ottiene è un infinitesimo di ordine
.
Voci correlate
• Trinomio di Newton
• Teorema multinomiale
• Coefficiente binomiale
Coefficiente multinomiale
Il coefficiente multinomiale è un'estensione del coefficiente binomiale. Per un numero intero non negativo
vettore intero non negativo
e un
di normauno pari a n, il coefficiente multinomiale è definito come
ed è sempre un numero naturale.
Teorema multinomiale
Come generalizzazione del teorema binomiale vale il cosiddetto teorema multinomiale:
ovvero
dove
indica la sommatoria di tutte le possibili erruple la cui somma degli elementi corrisponda proprio
a .
Una forma più compatta della precedente formula fa uso della notazione multi-indice e della contrazione tensoriale:
con le norme unitarie:
Coefficiente multinomiale
126
e:
Applicazioni
Il coefficiente multinomiale è pari al numero di modi in cui possono essere messi
oggetti in
scatole, tali che
Analogamente il coefficiente multinomiale dà il numero delle permutazioni di n oggetti, di cui
uguali tra loro,
oggetti stiano nella prima scatola,
nella seconda, e così via.
uguali tra loro e così via, potendo un qualsiasi
essere uguale a 1, e avendosi così
.
Il coefficiente multinomiale viene usato inoltre nella definizione della variabile casuale multinomiale:
una variabile casuale discreta.
Esempio
Vi sono molti modi di distribuire a 3 giocatori 10 carte ciascuno, mettendone da parte 2, il tutto prelevato da un
mazzo di 32 carte (come nel tradizionale gioco di carte tedesco skat). Quanti sono questi modi?
Voci correlate
•
•
•
•
•
Calcolo combinatorio
Coefficiente binomiale
Probabilità
Teorema binomiale
Variabile casuale multinomiale
127
Tappe in linea
Problema di Monty Hall
Il problema di Monty Hall è un
famoso problema di teoria della
probabilità, legato al gioco a premi
americano Let's Make a Deal. Prende il
nome da quello del conduttore dello
show, Maurice Halprin, noto con lo
pseudonimo di Monty Hall.
Nel gioco vengono mostrate al
concorrente tre porte chiuse; dietro ad
una si trova un'automobile, mentre
ciascuna delle altre due nasconde una
capra. Il giocatore può scegliere una
Dopo la scelta del giocatore, il presentatore apre una porta (egli sa dove si trova l'auto)
delle tre porte, vincendo il premio
mostrando una capra. Qualsiasi cosa ci sia dietro la scelta iniziale del giocatore, egli
cambiando scelta ha il 66,7% di probabilità di vincere l'auto, non cambiandola ne avrebbe
corrispondente. Dopo che il giocatore
il 33,3%.
ha selezionato una porta, ma non l'ha
ancora aperta, il conduttore dello show
– che conosce ciò che si trova dietro ogni porta – apre una delle altre due, rivelando una delle due capre, e offre al
giocatore la possibilità di cambiare la propria scelta iniziale, passando all'unica porta restante.
Cambiare porta migliora le chance del giocatore di vincere l'automobile? La risposta è sì: cambiando le probabilità di
successo passano da 1/3 a 2/3.
Il problema è anche noto come paradosso di Monty Hall, poiché la soluzione può apparire controintuitiva, ma non
si tratta di una vera antinomia, in quanto non genera contraddizioni logiche.
Storia del problema e sua soluzione
Il problema
Una famosa formulazione del problema è contenuta in una lettera del 1990 di Craig F. Whitaker, indirizzata alla
rubrica di Marilyn vos Savant nel settimanale Parade:
Supponi di partecipare a un gioco a premi, in cui puoi scegliere tra tre porte: dietro una di esse c'è
un'automobile, dietro le altre, capre. Scegli una porta, diciamo la numero 1, e il conduttore del gioco a
premi, che sa cosa si nasconde dietro ciascuna porta, ne apre un'altra, diciamo la 3, rivelando una
capra. Quindi ti domanda: "Vorresti scegliere la numero 2?" Ti conviene cambiare la tua scelta
originale?
Quella proposta sopra è una formulazione del problema data da Steve Selvin, in una lettera all'American Statistician
(febbraio 1975). Così impostato, il problema è in realtà una variazione sul tema del gioco a premi originale; Monty
Hall in effetti apriva una porta dietro cui si trovava una capra per aumentare la tensione, ma non consentiva ai
giocatori di cambiare la propria scelta originale. Come scrisse lo stesso Monty Hall a Selvin:
Problema di Monty Hall
E se mai dovesse partecipare al mio gioco, le regole sarebbero le stesse per lei - nessuno scambio dopo
la scelta originale.
—(letsmakeadeal.com) [1]
Marilyn vos Savant risolse il problema correttamente; l'episodio fece un certo scalpore, in quanto diversi accademici
non riconobbero la correttezza della soluzione proposta dalla vos Savant finché questa non la spiegò nel dettaglio in
un successivo articolo.
La successiva lettera di Selvin all'America Statistician (agosto, 1975) battezza il problema come "Problema di Monty
Hall".
Un problema essenzialmente identico appare in ogni modo nella rubrica Mathematical Games di Martin Gardner nel
1959, col nome di "Problema dei tre prigionieri".
Questo problema era stato ideato dal matematico francese Joseph Louis François Bertrand che lo aveva proposto nel
suo libro Calcul des Probabilités (1889) ed era noto come il Paradosso delle tre scatole di Bertrand.
Quella che segue, per concludere, è una formulazione del problema priva di ambiguità, con vincoli espliciti
concernenti il comportamento del conduttore, presentata da Mueser e Granberg:
• Dietro ciascuna di tre porte c'è un'automobile o una capra (due capre, un'automobile in tutto); la probabilità che
l'automobile si trovi dietro una data porta è identica per tutte le porte;
• Il giocatore sceglie una delle porte; il suo contenuto non è rivelato;
• Il conduttore sa ciò che si nasconde dietro ciascuna porta;
• Il conduttore deve aprire una delle porte non selezionate, e deve offrire al giocatore la possibilità di cambiare la
sua scelta;
• Il conduttore aprirà sempre una porta che nasconde una capra;
• Cioè, se il giocatore ha scelto una porta che nasconde una capra, il conduttore aprirà la porta che nasconde
l'altra capra;
• Se invece il giocatore ha scelto la porta che nasconde l'automobile, il conduttore sceglie a caso una delle due
porte rimanenti;
• Il conduttore offre al giocatore la possibilità di reclamare ciò che si trova dietro la porta che ha scelto
originalmente, o di cambiare, reclamando ciò che si trova dietro la porta rimasta.
Le possibilità di vittoria aumentano per il giocatore se cambia la propria scelta?
Soluzione
La risposta è sì; le probabilità di trovare l'automobile raddoppiano.[2][3]
La soluzione può essere illustrata come segue. Ci sono tre scenari possibili, ciascuno avente probabilità 1/3:
• Il giocatore sceglie la capra numero 1. Il conduttore sceglie l'altra capra, la numero 2. Cambiando, il giocatore
vince l'auto.
• Il giocatore sceglie la capra numero 2. Il conduttore sceglie l'altra capra, la numero 1. Cambiando, il giocatore
vince l'auto.
• Il giocatore sceglie l'auto. Il conduttore sceglie una capra, non importa quale. Cambiando, il giocatore trova l'altra
capra.
Nei primi due scenari, cambiando il giocatore vince l'auto; nel terzo scenario il giocatore che cambia non vince. Dal
momento che la strategia "cambiare" porta alla vittoria in due casi su tre, le chance di vittoria adottando la strategia
sono 2/3.
Una strategia di soluzione alternativa è considerare che se si suppone di cambiare, il solo caso in cui si perde è quello
in cui originariamente si è scelta l'automobile e quindi la domanda del conduttore può essere considerata un invito a
invertire le probabilità di successo con quelle di insuccesso.
128
Problema di Monty Hall
Il problema sarebbe diverso se non ci fosse una scelta iniziale, o se il conduttore scegliesse una porta a caso, o se il
conduttore potesse offrire al giocatore di cambiare a seconda della scelta iniziale del giocatore. Alcune formulazioni
del problema, e significativamente quella del settimanale Parade, non escludono esplicitamente queste possibilità;
diversi testi di probabilità elementare riportano varianti del problema. Per esempio, se il conduttore offre la
possibilità di cambiare solo se il giocatore inizialmente ha scelto l'automobile, le chance di vittoria associate alla
strategia "cambiare" sono, ovviamente, dello 0%. Nella formulazione proposta nella sezione precedente, il giocatore
che cambia ha una probabilità di vittoria pari a 2/3 precisamente perché il conduttore deve offrirgli la possibilità di
cambiare, e deve rivelare una capra.
Aiuti alla comprensione del problema
L'obiezione più comune alla soluzione è fornita dall'idea che, per varie ragioni, il passato possa essere ignorato
quando si valutano delle probabilità. Dunque, la scelta della prima porta e il ragionamento del conduttore circa quale
porta aprire si possono trascurare; dal momento che si può scegliere tra due porte, la probabilità di scegliere quella
giusta dovrebbe essere pari al 50%.
Per confutare ciò possiamo porci una domanda. Ipotizziamo che un giocatore adotti la strategia di non accettare mai
l'offerta del conduttore, qualunque essa sia. Se le probabilità di vincita all'inizio sono del 33%, ha senso pensare che
queste passino automaticamente al 50% solo perché il conduttore ha chiesto qualcosa che il giocatore non ascolta
neanche? Ovviamente no.
Sebbene ignorare il passato funzioni in certi giochi, come ad esempio nel lancio di una moneta, non funziona
necessariamente in tutti i giochi. Un rilevante controesempio è fornito dal conteggio delle carte uscite in certi giochi
di carte, che consente ai giocatori di sfruttare a proprio vantaggio l'informazione riguardante eventi passati. Questo
tipo di informazione è utile nella soluzione del problema di Monty Hall, come illustrato negli esempi che seguono.
Infatti, è più facile (probabile) che il giocatore si trovi ad aver scelto (prima scelta nel passato) una capra (aveva due
possibilità su tre per una capra contro una possibilità su tre per l'automobile).
Quello che realmente fa la differenza è la conoscenza del futuro o almeno la restrizione dei possibili eventi futuri.
Mentre nel lancio della moneta le probabilità di uscita testa o croce non dipendono dai lanci passati, negli esempi di
carte (contare le carte) o del problema di Monty Hall i possibili eventi futuri si "riducono" dopo un preciso episodio.
Nel caso del contare le carte, l'uscita di una carta modifica le possibili carte che possono ancora uscire, quindi ne
modifica la probabilità. Nel caso del problema di Monty Hall, l'esclusione da parte del conduttore di una scelta
certamente "sconveniente" rende attraente la porta rimanente più interessante della prima porta scelta quando non si
aveva nessuna conoscenza.
129
Problema di Monty Hall
Diagrammi di Eulero-Venn
La probabilità che l'auto sia dietro la porta restante può essere calcolata con l'ausilio del diagramma di Venn
illustrato sotto. Dopo aver scelto la porta 1, per esempio, il giocatore ha probabilità 1/3 di aver selezionato la porta
con l'auto, il che assegna una probabilità pari a 2/3 alle due porte restanti. Si osservi che c'è una probabilità pari a 1
di trovare una capra dietro almeno una delle due porte non selezionate dal giocatore, dal momento che c'è una sola
auto in palio.
Si supponga che il conduttore apra la porta 3. Dal momento che può solo aprire una porta che nasconde una capra, e
non apre una porta a caso, questa informazione non ha effetto sulla probabilità che l'auto sia dietro la porta
originariamente selezionata, che resta pari a 1/3. Ma l'auto non è dietro la porta 3, dunque l'intera probabilità di 2/3
delle due porte non selezionate dal giocatore è ora assegnata alla sola porta 2, come mostrato sotto. Un modo
alternativo per arrivare a questa conclusione è osservare che se l'auto si trova dietro la porta 2 o dietro la porta 3,
aprire la porta 3 implica che l'auto si trova dietro la 2.
Osserviamo che il problema non cambierebbe se il conduttore, anziché aprire una porta, offrisse al giocatore la
possibilità di cambiare la porta scelta con entrambe le altre. In questo caso è evidente che la probabilità è 2/3.
Viceversa, la situazione cambierebbe completamente se il presentatore, dopo aver escluso la porta 3, scambiasse
casualmente i premi nascosti dietro le porte 1 e 2. In questo caso il giocatore avrebbe probabilità 1/2 di vincere sia se
mantiene la porta 1, sia se la cambia. Senza questo rimescolamento le probabilità restano 1/3 e 2/3.
130
Problema di Monty Hall
131
Teorema di Bayes
Un'analisi del problema attraverso il teorema di Bayes rende esplicito l'effetto delle ipotesi sopra indicate. Si
consideri, senza ledere la generalità dell'analisi, il caso in cui la porta 3 è stata aperta dal conduttore mostrando una
capra, e che il concorrente abbia selezionato la porta 1.
La probabilità che l'automobile si trovi dietro la porta 2 (ovvero la probabilità di trovare l'auto dopo aver cambiato la
scelta iniziale) è
ove A1 è l'evento che l'auto si trovi dietro alla porta 1 e C3 è l'evento che il
conduttore selezioni una capra dietro la porta 3. La probabilità (a priori, utilizzando il gergo della statistica
bayesiana) che l'automobile si trovi dietro la porta 1, che si denota con
, è chiaramente 1/3, in quanto l'auto
ha a priori la stessa probabilità di trovarsi dietro ciascuna porta. La probabilità che il conduttore dello show trovi una
capra dietro la porta 3,
, è altrettanto chiaramente 1, visto che il conduttore sapeva in anticipo dove si
celava l'automobile e pertanto sa quale porta vada selezionata per trovare la capra. La probabilità che il conduttore
selezioni una porta con dietro la capra posto ("a posteriori") che l'automobile sia dietro la porta 1,
, è 1 per ovvi motivi.
Pertanto, sfruttando il teorema di Bayes:
La probabilità di trovare l'auto cambiando la scelta iniziale, dopo che il conduttore (onnisciente) ha mostrato una
porta con dietro la capra è:
Spiegazione del ragionamento intuitivo
Analisi della soluzione
Per arrivare al ragionamento intuitivo è necessaria l'analisi sotto un altro aspetto delle parole del conduttore: "Apro
una delle due porte che non hai scelto, in cui vi è una capra. Vuoi cambiare la tua scelta?". Sapendo a priori la
soluzione, le parole dette dal conduttore possono essere tradotte in: "Se hai scelto un'automobile (1/3) ti faccio
perdere facendoti scegliere una capra (100%), se invece hai scelto una delle due capre (2/3) ti faccio vincere
scegliendo l'automobile (100%). Vuoi cambiare la tua scelta?".
Come vediamo, inizialmente i casi sono:
• A: il giocatore sceglie la prima capra, perdendo (1/3);
• B: il giocatore sceglie la seconda capra, perdendo (1/3);
• C: il giocatore sceglie l'automobile, vincendo (1/3);con una probabilità di vincita del 1/3.
Cambiando la scelta ci accorgiamo che:
• A: il giocatore aveva scelto la prima capra, la seconda capra viene scoperta, il giocatore sceglie l'automobile
vincendo (1/3);
• B: il giocatore aveva scelto la seconda capra, la prima capra viene scoperta, il giocatore sceglie l'automobile
vincendo (1/3);
• C: il giocatore aveva scelto l'automobile, viene scoperta una delle due capre, il giocatore sceglie la capra
rimanente perdendo (1/3);con una probabilità di vincita di 2/3 (sia A che B), possiamo rilevare che questo accade
solo perché dato che i casi di perdita sono due, eliminandone uno, le possibilità, cambiando la scelta variano da: A
e B perdenti e C vincente, a C perdente e AB vincente.
Perciò, essendo partiti da 3 possibilità iniziali, di cui due uguali, avendo quindi solo 2 risultati finali, le probabilità
passano dal 1/3 a 2/3 e non dal 1/3 al 50%, cosa che sarebbe accaduta se le situazioni iniziali fossero 3 differenti, in
modo da avere obbligatoriamente 3 risultati finali di modo che l'apertura di una delle tre porte avrebbe eliminato una
delle opzioni finali e iniziali e non solo di quelle iniziali.
Problema di Monty Hall
Il ragionamento intuitivo
La situazione che d'intuito ci viene a pensare è questa, che purtroppo induce ogni ragionamento logico collegato a
non riuscire a spiegare il problema di Monty Hall: Partiamo dalla situazione che vi è un secondo concorrente a
partecipare al gioco a premi per rappresentare la seconda situazione differente da quella del primo, il primo
concorrente ha già vinto la macchina, e al posto di una capra viene messa una moto in una porta. Ora a seconda di
cosa sceglierà il concorrente, vincerà (scegliendo la porta con l'automobile che avrebbe dovuto vincere il primo
concorrente), vi sarà un pareggio (entrambi vinceranno: il primo concorrente vincerà l'automobile e il secondo la
moto) oppure perderà (scegliendo la capra, lasciando vincere il primo concorrente). Supponi ora di partecipare a un
gioco a premi, in cui puoi scegliere tra tre porte: dietro una di esse c'è un'automobile, dietro un'altra una moto e
infine dietro l'ultima, una capra. Scegli una porta, diciamo la numero 1, e il conduttore del gioco a premi, che sa
cosa si nasconde dietro ciascuna porta, ne apre un'altra, diciamo la 3. Quindi ti domanda: "Vorresti scegliere la
numero 2?" Ti conviene cambiare la tua scelta originale? Dietro ciascuna di tre porte c'è un'automobile o una moto
o una capra; la probabilità che l'automobile si trovi dietro una data porta è identica per tutte le porte;
• Il giocatore sceglie una delle porte; il suo contenuto non è rivelato;
• Il conduttore sa ciò che si nasconde dietro ciascuna porta;
• Il conduttore deve aprire una delle porte non selezionate, e deve offrire al giocatore la possibilità di cambiare la
sua scelta;
• Il conduttore aprirà una delle porte non scelte a caso;
• Cioè, indipendentemente da ciò che ha scelto il giocatore il conduttore aprirà una porta, eliminando la
possibilità che la condizione finale correlata alla porta appena aperta si verifichi;
• Il conduttore offre al giocatore la possibilità di reclamare ciò che si trova dietro la porta che ha scelto
originalmente, o di cambiare, reclamando ciò che si trova dietro la porta rimasta.
Che cambiamento si ha? Le possibilità di vittoria aumentano?
La soluzione al ragionamento intuitivo
La risposta è sì; le probabilità di trovare l'automobile arrivano al 50%.
La differenza con il problema precedente sta nelle probabilità di perdita o di pareggio, che aumentano anch'esse fino
al 50%.
La soluzione può essere illustrata come segue. Ci sono sei scenari possibili, ciascuno avente probabilità 1/6:
• Il giocatore sceglie la capra.
• Il conduttore elimina l'automobile. Cambiando, il giocatore pareggia, scegliendo la moto.
• Il conduttore elimina la moto. Cambiando, il giocatore vince, scegliendo l'automobile.
• Il giocatore sceglie la moto.
• Il conduttore sceglie la capra. Cambiando, il giocatore vince, scegliendo l'auto.
• Il conduttore sceglie l'automobile. Cambiando, il giocatore perde, scegliendo la capra.
• Il giocatore sceglie l'automobile.
• Il conduttore sceglie la moto. Cambiando, il giocatore perde, scegliendo la capra.
• Il conduttore sceglie la capra. Cambiando, il giocatore pareggia, scegliendo la moto.
Come si può vedere, la situazione iniziale, avendo tre possibilità differenti, impone tre risultati diversi. Perciò questa
volta è il conduttore a eliminare una possibilità al giocatore, cosa che potrebbe portare uno svantaggio o un
vantaggio a seconda del conduttore, quindi il giocatore dovrebbe soltanto decidere se fidarsi o no.
La possibilità di pareggio va considerata a sè stante e non come possibilità di perdita, altrimenti si rischia di
confondere nuovamente le situazioni dei due concorrenti, senza capire la situazione reale.
132
Problema di Monty Hall
Varianti
Il conduttore non sa cosa ci sia dietro le porte
Dopo la scelta del concorrente, il conduttore apre una delle due porte rimaste. Poiché non sa cosa c'è dietro, con
probabilità 1/3 trova l'auto e il gioco finisce. Con probabilità 2/3 trova invece la capra e può chiedere al concorrente
se vuole effettuare il cambio con la porta rimasta chiusa. In questo caso accettare lo scambio non fa aumentare al
concorrente la sua probabilità di vincere che a questo punto è di 1/2 qualunque sia la sua decisione.[4]
Due giocatori
Ad alcuni minuti dalla fine del gioco, il conduttore sceglie due concorrenti a cui proporre "la grande scommessa".
Dietro a una delle tre porte c'è il premio più consistente. Ad ogni giocatore è permesso scegliere una porta (non la
stessa) .
In questo scenario, si può esaminare una variante del problema. Il presentatore elimina il giocatore che abbia scelto
una porta con dietro la capra (se lo hanno fatto entrambi, ne viene scelto uno a caso), apre la porta, svelando la capra
e poi offre al giocatore rimanente la possibilità di cambiare la propria scelta. Il giocatore dovrebbe effettuare lo
scambio?
La risposta è no. La ragione: il giocatore che effettuasse lo scambio in questo tipo di gioco vincerebbe se e solo se
entrambi i giocatori avessero scelto una porta con la capra. che probabilità ha questa evenienza? 1/3. Se mantenesse
la scelta resterebbero 2/3 di probabilità. Quindi chi mantenesse la scelta fatta inizialmente avrebbe il doppio delle
possibilità di vincere.
In alternativa, ci sono tre possibili scenari, tutti con uguale probabilità (1/3):
• Il giocatore 1 sceglie la porta che nasconde l'auto. Il conduttore deve eliminare il giocatore 2. Cambiare scelta
comporta perdere.
• Il giocatore 2 sceglie la porta che nasconde l'auto. Il conduttore deve eliminare il giocatore 1. Cambiare scelta
comporta perdere.
• Nessuno dei giocatori sceglie la porta che nasconde l'auto. Il conduttore elimina a caso uno dei due giocatori.
Cambiare scelta comporta vincere.
Il giocatore 1 è l'unico rimasto nel primo caso, e lo è con probabilità 1/2 nel terzo caso; in questa eventualità
cambiare scelta comporta una probabilità di perdere (1/3) due volte maggiore di quella di vincere (1/6).
Analogamente, nel secondo caso il giocatore 2 è l'unico rimasto, e lo è con probabilità 1/2 nel terzo caso; in questa
eventualità cambiare scelta comporta una probabilità di perdere (1/3) due volte maggiore di quella di vincere (1/6).
Dunque a prescindere da quale giocatore rimanga, c'è una probabilità pari a 2/3 di vincere se non si cambia scelta.
Per rendere più palese la differenza rispetto al caso precedente si può dire che non si può qui ragionare come prima
dove il (unico) giocatore arriva sempre al secondo turno (quello del possibile scambio) e la probabilità che abbia
selezionato la scelta vincente rimane 1/3, contro i complementari 2/3 della scelta alternativa. Si deve invece notare
che nell'istante in cui un giocatore (uno dei due) arriva al secondo turno deve considerare che la probabilità che abbia
inizialmente effettuato la scelta giusta si modifica e sale a 2/3. In sostanza il giocatore rimasto riveste in questo caso,
in termini di probabilità, lo stesso ruolo che prima (caso con un giocatore) ricopriva la porta non selezionata dal
giocatore né eliminata dal conduttore.
133
Problema di Monty Hall
n porte
Esiste una generalizzazione del problema originale in cui si hanno n porte: nel primo stadio del gioco, il giocatore
sceglie una porta. Quindi il conduttore apre un'altra porta, che nasconde una capra. Se il giocatore vuole, può quindi
cambiare scelta e passare a un'altra porta. Il conduttore aprirà allora un'ulteriore porta, ancora non aperta, che
nasconde una capra, diversa da quella attualmente scelta dal giocatore. Il giocatore ha quindi la possibilità di
cambiare ancora scelta, e così via. Questo procedimento continua fino a che non restano che due porte non ancora
aperte: la scelta corrente del giocatore, e un'altra porta. Quante volte dovrebbe cambiare scelta il giocatore, e a che
punto del gioco (sempre che cambi almeno una volta)?
La migliore strategia è: restare con la prima scelta sino a che non rimangano solo due porte e a quel punto
cambiare. Seguendo questa strategia la probabilità di vincere è
. Questa variante del paradosso di
Monty Hall si deve a Bapeswara Rao e Rao.
Variante nel gioco del bridge
Una comune variante del problema è nota ai giocatori di bridge da ben prima che l'articolo della Vos Savant fosse
pubblicato. Tale variante è nota come principio della scelta ristretta.[5]
Versione quantistica
Esiste una versione quantistica del paradosso, che illustra alcuni aspetti della relazione tra la teoria dell'informazione
classica (non quantistica) e l'informazione quantistica, ossia l'informazione codificata negli stati di sistemi meccanici
quantistici. Le tre porte sono rimpiazzate da un sistema quantistico che consta di tre alternative, in cui aprire una
porta e vedere cosa nasconde si traduce in fare una particolare misurazione. Le regole del gioco possono essere
espresse in questo linguaggio, e ancora una volta il giocatore può scegliere se restare fedele alla propria scelta
iniziale o cambiare e optare per una scelta alternativa ("ortogonale"). Quest'ultima strategia ha probabilità di vittoria
doppie, esattamente come nel caso classico. Tuttavia, se la posizione del premio non è pienamente casuale in senso
quantistico, il giocatore può fare ancora meglio, e in determinati casi vincere con probabilità pari a uno. È
disponibile in rete un articolo [6] al riguardo, nonché un'applet [7] che illustra gli effetti così descritti.
Nella letteratura e nel cinema
• Questo problema viene citato, con tanto di due dimostrazioni (intuitiva e matematica), nel libro di Mark Haddon
Lo strano caso del cane ucciso a mezzanotte, dove il giovane protagonista propone il quesito ai lettori.[8]
• Un'altra citazione del problema si ha nel telefilm Numb3rs.[9]
• Nel film 21, il professore Mickey Rosa propone il problema al protagonista del film, l'allievo Ben Campbell, che
lo risolve brillantemente.
• Anche la scrittrice Scarlett Thomas nel suo libro PopCo cita questo problema, definendolo Dilemma di Monty
Hall[10]
• Nel libro "I conigli di Schrödinger" di Colin Bruce, viene illustrato il Problema di Monty Hall.[11]
134
Problema di Monty Hall
Note
[1] http:/ / www. letsmakeadeal. com/ problem. htm
[2] (EN) Grinstead, Charles M. and Snell, J. Laurie, Grinstead and Snell’s Introduction to Probability (http:/ / www. math. dartmouth. edu/
~prob/ prob/ prob. pdf) (PDF), 4 luglio 2006, pp. 136-139. URL consultato il 4 luglio 2012.
[3] (EN) David Morin, Probability (http:/ / www. people. fas. harvard. edu/ ~djmorin/ probability. pdf), p. 49
[4] Rosenthal, Jeffrey S. (2005a). "Monty Hall, Monty Fall, Monty Crawl" (http:/ / probability. ca/ jeff/ writing/ montyfall. pdf). Math Horizons:
September issue,5–7 (in inglese). URL consultato in data 12 luglio 2012.
[5] Restricted Choice Article (http:/ / www. acbl-district13. org/ artic003. htm)
[6] http:/ / xxx. lanl. gov/ abs/ quant-ph/ 0202120
[7] http:/ / www. imaph. tu-bs. de/ qi/ monty/
[8] p. 77, 78, 79 e 80. Mark Haddon, Lo strano caso del cane ucciso a mezzanotte, Einaudi (2003)
[9] Numb3rs - Episodio 1.13, Caccia all'uomo
[10] Scarlett Thomas, PopCo Newton Compton Editori (2007)
[11] p.75,76,77.Colin Bruce, I conigli di Schrödinger, Raffaello Cortina Editore (2006)
Bibliografia
• (EN) Bapeswara Rao, V. V. e Rao, M. Bhaskara (1992). A three-door game show and some of its variants. The
Mathematical Scientist 17(2), 89–94
• (EN) Bohl, Alan H.; Liberatore, Matthew J.; e Nydick, Robert L. (1995). A Tale of Two Goats... and a Car, or The
Importance of Assumptions in Problem Solutions. Journal of Recreational Mathematics 1995, 1–9.
• Joseph Bertrand (1889). Calcul des probabilités
• (EN) Gardner, Martin (1959). Rubrica "Mathematical Games", Scientific American, Ottobre 1959, 180–182.
• (EN) Mueser, Peter R. e Granberg, Donald (1999). The Monty Hall Dilemma Revisited: Understanding the
Interaction of Problem Definition and Decision Making (University of Missouri Working Paper 99-06). http://
econwpa.wustl.edu:80/eps/exp/papers/9906/9906001.html (retrieved July 5, 2005).
• (EN) Nahin, Paul J. (2000). Duelling idiots and other probability puzzlers. Princeton University Press, Princeton,
NJ, 192-193. ISBN 0-691-00979-1
• (EN) Selvin, Steve (1975a). A problem in probability (letter to the editor). American Statistician 29(1):67
(Febbraio 1975).
• (EN) Selvin, Steve (1975b). On the Monty Hall problem (letter to the editor). American Statistician 29(3):134
(Agosto 1975).
• (EN) Tierney, John (1991). Behind Monty Hall's Doors: Puzzle, Debate and Answer?, The New York Times 21
luglio 1991, Domenica, Section 1; Part 1; Page 1; Column 5
• vos Savant, Marilyn (1990). Rubrica Ask Marilyn, Parade Magazine 12 (17 febbraio 1990). [citata in Bohl et al.,
1995]
• (EN) Adams, Cecil (1990). On 'Let's Make a Deal,' you pick Door #1. Monty opens Door #2--no prize. Do you
stay with Door #1 or switch to #3?, The Straight Dope 2 novembre 1990. http://www.straightdope.com/
classics/a3_189.html (consultata il 25 luglio 2005).
• (EN) Tijms, Henk (2004). Understanding Probability, Chance Rules in Everyday Life. Cambridge University
Press, New York, 213-215.
• Haddon, Mark (2003). Lo strano caso del cane ucciso a mezzanotte Einaudi.
• Rosenthal, Jeffrey S. (2006). Le regole del caso, istruzioni per l'uso, Longanesi, Milano, ISBN 88-304-2370-X
• (EN) Rosenhouse, Jason (2009). The Monty Hall Problem, Oxford University Press ISBN 978-0-19-536789-8
135
Problema di Monty Hall
Voci correlate
• Paradosso delle tre carte
Altri progetti
•
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Monty Hall
problem
Collegamenti esterni
• Simulazione fino a 100.000 tentativi (http://utenti.quipo.it/base5/probabil/montyhall.htm)
• Simulatore giocabile del paradosso (http://www.taravella.eu/content/view/14/27/)
Paradosso delle tre carte
Viene detto paradosso delle tre carte un classico problema del calcolo delle probabilità che pur nella sua semplicità
ha una soluzione abbastanza controintuitiva: ci sono tre carte, delle quali la prima (A) è rossa su entrambi i lati, la
seconda (B) su un lato è rossa e sull'altro è bianca e la terza (C) è bianca su entrambi i lati. Ponendo su un tavolo una
delle tre carte, scelta a caso, ottengo che il lato visibile è di colore rosso. Qual è la probabilità che anche il lato non
visibile sia di colore rosso?
La risposta intuitiva porta solitamente a rispondere che la probabilità ricercata sia pari al 50%, in quanto solo due
carte (la A e la B) possono mostrare il colore rosso e solo una di queste (la A) può mostrare anche sull'altro lato il
colore rosso; tuttavia si dimostra che la risposta giusta è 2/3.
Soluzione
Ci sono in tutto 6 facce, delle quali 3 sono rosse e 3 sono bianche. Denominiamo 1 e 2 le due facce che appartengono
alla carta rossa su entrambi i lati; denominiamo 3 la faccia rossa della carta rossa su un lato e bianca sull'altro. È
possibile che la faccia visibile all'inizio del gioco sia 1, 2 o 3, con uguale probabilità. Su tre possibili casi, due
comportano che la faccia non visibile sia rossa: 1 e 2. Pertanto la probabilità che il lato non visibile sia rosso è di 2/3.
L'intuizione suggerisce la risposta sbagliata perché porta a non distinguere le facce 1 e 2 come eventi distinti.
Dimostrazione assiomatica o frequentista
Estraendo una carta e posandola sul tavolo si possono verificare i seguenti sei casi equoprobabili, che possono
capitare in maniera egualmente frequente
1.
2.
3.
4.
5.
6.
lato visibile = Aa = rosso, lato nascosto = Ab = rosso
lato visibile = Ab = rosso, lato nascosto = Aa = rosso
lato visibile = Ba = rosso, lato nascosto = Bb = bianco
lato visibile = Bb = bianco, lato nascosto = Ba = rosso
lato visibile = Ca = bianco, lato nascosto = Cb = bianco
lato visibile = Cb = bianco, lato nascosto = Ca = bianco
escludendo gli ultimi tre casi in quanto il lato visibile è bianco, rimangono tre casi dove il lato visibile è rosso, due
dei quali nascondono un lato anch'esso rosso, dunque la probabilità è di 2/3.
136
Paradosso delle tre carte
Dimostrazione con il teorema di Bayes
La probabilità condizionata cercata è
Pr(lato invisibile è rosso | lato scoperto è rosso)
dove i lati rossi sono: Aa, Ab e Ba (e quelli bianchi: Bb, Ca, Cb), per cui si può scrivere
Pr(Aa+Ab+Ba|Aa+Ab+Ba)
che, utilizzando il teorema di Bayes viene riformulata in
= Pr(Aa+Ab+Ba|Aa+Ab+Ba) * Pr(Aa+Ab+Ba) / ( Pr(Aa+Ab+Ba|Aa+Ab+Ba) * Pr(Aa+Ab+Ba) +
Pr(Aa+Ab+Ba|Bb+Ca+Cb) * Pr(Bb+Ca+Cb) )
Essendo
Pr(Aa+Ab+Ba)=1/2, ovvero metà dei lati sono rossi
Pr(Bb+Ca+Cb)=1/2, e l'altra metà sono bianchi
Pr(Aa+Ab+Ba|Aa+Ab+Ba) = Pr(Aa|Aa+Ab+Ba) + Pr(Ab|Aa+Ab+Ba) + Pr(Ba|Aa+Ab+Ba) = 1/3 + 1/3 + 0 =
2/3
Pr(Aa|Aa+Ab+Ba) = Pr(Aa+Ab+Ba|Aa) * Pr(Aa) / Pr(Aa+Ab+Ba) = 1 * 1/6 * 2 = 2/6 = 1/3
Pr(Aa+Ab+Ba|Aa) = Pr(Aa|Aa) + Pr(Ab|Aa) + Pr(Ba|Aa)= 0+1+0 = 1
Pr(Aa) = 1/6
Pr(Aa+Ab+Ba) = 1/2
Pr(Ab|Aa+Ab+Ba) = 1/3, ottenuto in modo analogo
Pr(Ba|Aa+Ab+Ba) = 0, comprensibile in modo intuitivo, in quanto se il lato visibile appartiene alla carta
A il retro non può appartenere alla carta B e se il lato visibile è Ba non è possibile che anche il lato
coperto sia Ba:
Pr(Aa+Ab+Ba|Ba) = Pr(Aa|Ba) + Pr(Ab|Ba) + Pr(Ba|Ba)= 0 + 0 + 0 = 0
in maniera analoga si mostra che
Pr(Aa+Ab+Ba|Bb+Ca+Cb) = Pr(Aa|Bb+Ca+Cb) + Pr(Ab|Bb+Ca+Cb)+ Pr(Ba|Bb+Ca+Cb) = 0 + 0 + 1/3 = 1/3
per cui
Pr(lato invisibile è Rosso | lato scoperto è rosso) = 2/3*1/2 / (2/3*1/2 + 1/3*1/2) = 2/3
Le origini
Questo è il testo originale del paradosso, proposto da Warren Weaver nel 1950:
« Giochiamo con tre carte. Una è bianca su entrambi i lati, una è rossa su entrambi i lati e una è bianca da un lato e rossa
dall'altro. Ogni carta è nascosta in una scatoletta nera. Il giocatore sceglie una delle tre scatolette, estrae la carta e la posa sul
tavolo in modo che sia visibile un solo lato. Supponiamo che il lato che si vede sia bianco. Il conduttore propone al giocatore
di scommettere alla pari che è bianco anche l'altro lato della carta (se è bianco vince il conduttore, se è rosso vince il
giocatore). Conviene al giocatore accettare la scommessa? Perché? »
137
Paradosso delle tre carte
Paradosso delle tre scatole
In realtà, una versione perfettamente analoga del problema era già stata presentata da Joseph Bertrand nel suo libro
Calcul des probabilités: ci sono tre scatole, di cui la prima contiene due monete d'oro, la seconda due monete
d'argento e la terza una d'oro ed una d'argento: se estraendo una moneta a caso da una scatola a caso ci si ritrova in
mano una moneta d'oro, qual è la probabilità che anche l'altra nella scatola lo sia?
La soluzione è anche in questo caso 2/3.
Voci correlate
• Problema di Monty Hall
• Warren Weaver e Martin Gardner, che hanno descritto questo problema
• Paradosso dei due bambini
Paradosso dei due bambini
Viene detto paradosso dei due bambini un celebre quesito della teoria della probabilità, apparentemente semplice
ma in realtà ambiguo e il cui studio porta ad una risposta controintuitiva. Esso è spesso citato per mettere in evidenza
la facilità con la quale nell'ambito della probabilità può nascere confusione anche in contesti che a prima vista
sembrano nient'affatto complicati da analizzare.
Il nome con cui viene chiamato comunemente questo problema viene dall'inglese "Boy or Girl paradox"; tuttavia il
termine italiano "paradosso" ha un senso più preciso e restrittivo del "paradox" inglese, e non designa problemi come
questo, che tecnicamente è piuttosto un sofisma.
Quesito
Il quesito in questione è, in una delle prime formulazioni (proposta da Martin Gardner sulle pagine del Scientific
American): "Il signor Smith ha due bambini. Almeno uno dei due è un maschio. Qual è la probabilità che entrambi i
bambini siano maschi?"
La risposta intuitiva è che se, poniamo, è maschio il primo bambino, la probabilità che anche l'altro lo sia è 1/2=50%.
In realtà, come riconosciuto da Gardner stesso, la domanda è posta in modo ambiguo (è facile pensare che con
"almeno uno" si intenda "sicuramente uno che ho chiaramente individuato - ed eventualmente anche l'altro"), e una
possibile riformulazione - intuitivamente equivalente - che non dia adito ad ambiguità è la seguente:
"Il signor Smith ha due bambini. Non sono due femmine. Qual è la probabilità che entrambi i bambini siano
maschi?"
Non è difficile, utilizzando semplici strumenti di probabilità classica, scoprire che la risposta è allora 1/3=33,3%. Di
seguito le possibili combinazioni dei figli che rispettano le condizioni date:
138
Paradosso dei due bambini
139
Figlio maggiore Figlio minore
Femmina
Femmina
Femmina
Maschio
Maschio
Femmina
Maschio
Maschio
Si osservi che questo cosiddetto paradosso non ha nulla a che vedere con il fatto che in natura nella grande
maggioranza dei paesi nascano leggermente più maschi che femmine; si assume invece che la probabilità di un figlio
maschio sia a priori uguale a quella di una figlia femmina: 1/2.
Dimostrazione assiomatica o frequentista
Su 100 famiglie che hanno esattamente due figli, si osserveranno in media le seguenti quattro combinazioni:
1.
2.
3.
4.
25 famiglie il cui primo figlio è maschio e il secondo pure
25 famiglie il cui primo figlio è maschio e il secondo invece femmina
25 famiglie il cui primo figlio è femmina e il secondo invece maschio
25 famiglie il cui primo figlio è femmina e il secondo pure
La domanda prende in considerazione i primi tre casi, ovvero non quello in cui ci sono due femmine: si tratta di 75
famiglie. Nelle 25 famiglie del primo caso entrambi i figli sono maschi, mentre nelle 25+25=50 famiglie del secondo
e terzo caso ci sono un maschio ed una femmina. Pertanto la probabilità che entrambi siano maschi è pari a
25/75=1/3.
Una domanda simile con risposta corretta pari a 1/2
L'ambiguità è nell'espressione "almeno un bambino", che porta a intendere questo "paradosso" nella seguente
formulazione, in apparenza equivalente:
sapendo che una famiglia ha esattamente due bambini, dei quali il primo è un maschio, quant'è la probabilità
che l'altro bambino sia una femmina?
In questo caso la risposta intuitiva (1/2=50%) è corretta. Infatti in metà delle famiglie (casi 1 e 2) il primo figlio è
maschio e di queste nella metà dei casi (caso 1) anche il secondo è maschio. Di seguito le possibili combinazioni dei
figli che rispettano le diverse condizioni poste:
Figlio maggiore Figlio minore
Femmina
Femmina
Femmina
Maschio
Maschio
Femmina
Maschio
Maschio
Ma con le parole "almeno un bambino", non stiamo individuando uno dei due figli in particolare (cioè se è il primo o
il secondo). Le parole "l'altro bambino" invece ci portano spontaneamente ad immaginare che l'"almeno uno" indichi
un bambino specifico (ad esempio che chi ci pone la domanda ne abbia chiaro in mente il volto e se è il primo o il
secondo) ed a forzare quindi il significato della prima parte della domanda.
Paradosso dei due bambini
Un'altra domanda simile con risposta corretta pari a 1/2
Un'altra domanda simile è la seguente:
"In un mondo nel quale tutte le famiglie hanno esattamente due bambini (p.es. nell'associazione "Famiglie con
due figli"), incontrando un maschietto, quant'è la probabilità che abbia una sorella?"
Anche in questo caso la risposta intuitiva (1/2=50%) è anche quella corretta. Infatti analizzando in modo
leggermente diverso l'elenco di cui sopra
1.
2.
3.
4.
25 famiglie il cui primo figlio (gruppo A1) è maschio e il secondo (gruppo A2) pure
25 famiglie il cui primo figlio (gruppo B1) è maschio e il secondo (gruppo B2) invece femmina
25 famiglie il cui primo figlio (gruppo C1) è femmina e il secondo (gruppo C2) invece maschio
25 famiglie il cui primo figlio (gruppo D1) è femmina e il secondo (gruppo D2) pure
si osserva che incontrando un maschietto questo deve appartenere ad uno dei seguenti quattro gruppi:
•
•
•
•
25 (primogeniti) del gruppo A1, che non hanno sorelle
25 (secondogeniti) del gruppo A2, che non hanno sorelle (si tratta dei fratelli di bambini del gruppo A1)
25 (primogeniti) B1, che hanno una sorella (minore)
25 (secondogeniti) C2, che hanno una sorella (maggiore)
In totale ci sono dunque 100 maschietti, dei quali 25+25=50 hanno una sorella, di conseguenza la probabilità cercata
è effettivamente pari a 50/100=1/2=50%.
Studio scientifico
Fox & Levav nel 2004 hanno sottoposto ad un test alcuni volontari, ponendo loro una delle seguenti due domande:
• «Il signor Smith dice: "Ho due bambini ed almeno uno è un maschio." Considerando questa informazione, qual è
la probabilità che l'altro bambino sia un maschio?»
• «Il signor Smith dice: "Ho due bambini e non sono entrambi femmine." Considerando questa informazione, qual è
la probabilità che entrambi i bambini siano maschi?»
I due studiosi hanno riportato che l'85% delle persone che hanno risposto alla prima domanda, hanno fornito come
risposta 1/2 considerando solo 2 possibili combinazioni, ingannati dalle parole " l'altro bambino ". Alla seconda
domanda, solamente il 39% ha risposto 1/2. Gli studiosi hanno così dimostrato che pur essendo (a livello di calcolo
delle probabilità) la stessa domanda con gli stessi casi da considerare, la diversa formulazione ha ridotto l'ambiguità
e di conseguenza le risposte errate del 46%.
Note
Voci correlate
• Probabilità condizionata
• Paradosso delle tre carte
• Problema di Monty Hall
140
Paradosso del compleanno
141
Paradosso del compleanno
Il paradosso[1] del compleanno (o
problema del compleanno) è un
paradosso di teoria della probabilità
definito nel 1939 da Richard von
Mises. Il paradosso afferma che la
probabilità che almeno due persone in
un gruppo compiano gli anni lo stesso
giorno è largamente superiore a quanto
potrebbe dire l'intuito: infatti già in un
gruppo di 23 persone la probabilità è
circa 0,51; con 30 persone essa supera
0,70, con 50 persone tocca addirittura
0,97, anche se per arrivare all'evento
certo occorre considerare un gruppo di
almeno 367 persone (per il principio
dei cassetti e la possibilità di anni bisestili).
Il grafico mostra l'andamento di P(p) al crescere del numero di persone
Per effettuare il calcolo, si ricorre alla formula per la probabilità degli eventi indipendenti: per rendere più semplice
il calcolo si assume che gli anni siano tutti di 365 giorni e che i compleanni siano equiprobabili, anche se ciò non è
esatto[2]. Aggiungere il giorno bisestile peggiora leggermente la probabilità, ma in compenso il fatto che i
compleanni non siano equiprobabili la alza.
Il modo più semplice per calcolare la probabilità P(p) che ci siano almeno due persone appartenenti ad un gruppo di
p persone che compiano gli anni lo stesso giorno è calcolare dapprima la probabilità P1(p) che ciò non accada. Il
ragionamento è questo: data una qualunque persona del gruppo (indipendentemente dalla data del suo compleanno),
vi sono 364 casi su 365 in cui il compleanno di una seconda persona avvenga in un giorno diverso; se si considera
una terza persona, ci sono 363 casi su 365 in cui compie gli anni in un giorno diverso dalle prime due persone e via
dicendo. Esprimendo in formule quanto sopra, la probabilità che tutti i compleanni cadano in date diverse è:
e dunque la probabilità del suo evento complementare, cioè che esistano almeno due compleanni uguali, è
Questo paradosso ha importanti ricadute nella crittografia e nel dimensionamento del blocco da cifrare. In particolare
nell'ambito della crittografia si utilizza il paradosso del compleanno per indicare che le funzioni hash crittografiche
abbiano la proprietà di "resistenza forte alle collisioni". Ad esempio una funzione di hash che produce un risultato su
N bit sarà reputata insicura quando verranno generati
risultati in quanto si ha la probabilità di oltre il 50% di aver
trovato una collisione, il risultato evidentemente è ben al di sotto dei
elementi necessari suggeriti dall'intuito.
Paradosso del compleanno
142
Note
[1] Il termine paradosso non è da intendersi nel senso di una contraddizione logica, ma viene chiamato in questo modo poiché la verità
matematica contraddice l'intuizione naturale: molte persone stimano che questa probabilità sia decisamente inferiore al 50%.
[2] (EN) Leap Day -- from Eric Weisstein's World of Astronomy (http:/ / scienceworld. wolfram. com/ astronomy/ LeapDay. html). URL
consultato in data 22-04-2009.
Collegamenti esterni
• Il paradosso del compleanno (http://www.teacherlink.org/content/math/interactive/probability/lessonplans/
birthday/home.html)
Blackjack
Blackjack
Una partita a Blackjack
Luogo origine
Francese
Regole
N° giocatori
Squadre
Giro
Azzardo
Mazzo
7 + Banco
No
Senso orario
Sì
2 mazzi di 52 carte
Gerarchia semi
No
Gerarchia carte
No
Il Black Jack (in italiano chiamato anche Ventuno) è un gioco d'azzardo di carte che si svolge tra il banco,
rappresentato dal casinò, e i giocatori. Vincono i giocatori che realizzano un punteggio più alto del banco non
superiore a 21.
Blackjack
Storia
Il gioco è nato in Francia nel XVII secolo, con il nome di Vingt-et-un (ossia "ventuno"). Una volta approdato negli
Stati Uniti il gioco del ventuno venne denominato Black Jack (fante nero) con l'introduzione di una variante: qualora
il giocatore facesse 21 con un asso e un jack di picche, veniva pagato con un bonus di dieci volte la posta. Anche se
attualmente il bonus è stato abolito, il nome comunque è rimasto.
Le carte
Di norma il Black Jack viene usato con un sabot formato da 2 mazzi di carte francesi, per un totale di 104 carte. Nel
gioco l'asso può valere 11, o 1, le figure valgono 10, mentre le altre carte valgono il loro valore nominale. I semi non
hanno alcuna influenza, o valore. La somma dei punti, al fine del calcolo del punteggio, avviene per semplice calcolo
aritmetico.
Svolgimento del gioco
Una volta che i giocatori hanno fatto la loro puntata, il banchiere procedendo da sinistra verso destra assegna a
ciascuno dei giocatori una carta coperta in ogni postazione giocata, assegnando l'ultima al banco. Effettua poi un
secondo giro di carte scoperte, senza però attribuirne una a se stesso. Avvenuta la distribuzione, il dealer legge in
ordine il punteggio di ciascun giocatore invitandoli a manifestare il loro gioco: essi potranno chiedere carta o stare, a
loro discrezione. Se un giocatore supera il 21 risulta perdente e il dealer incasserà la puntata. Una volta che i
giocatori hanno definito i loro punteggi il dealer sviluppa il suo gioco seguendo la "regola del banco": egli deve
tirare carta con un punteggio inferiore o uguale a 16. Una volta superato il 16 si deve fermare. Se oltrepassa il 21 il
banco "sballa" e deve pagare tutte le puntate rimaste sul tavolo. Una volta definiti tutti i punteggi, il dealer confronta
il proprio con quello degli altri giocatori, paga le combinazioni superiori alla sua, ritira quelle inferiori e lascia quelle
in parità. Il pagamento delle puntate vincenti è alla pari.
Il Black Jack puro
Il Black Jack puro si ottiene quando il giocatore fa 21 con le prime due carte assegnateli dal dealer, e si può fare solo
con un Asso di picche (11) e un Jack di picche; questo punteggio batte il banco anche se totalizza 21.
Il Black Jack
Il giocatore che fa 21 con le prime due carte assegnategli dal dealer, cioè riceve un Asso (11) e un dieci o una figura,
forma il black jack e ha diritto al pagamento di 3 a 2 (una volta e mezzo la posta, cioè, la somma scommessa x 1,5);
se il dealer realizza anche lui il black jack la mano è considerata alla pari.
Il raddoppio della puntata (double down)
I giocatori hanno una particolare opzione di giocata: se con le prime due carte hanno realizzato da 9 a 15 punti,
possono raddoppiare la puntata al momento della chiamata ma impegnandosi a chiedere una sola carta, e dopo aver
ricevuto questa carta il giocatore è obbligato a fermarsi.
La divisione (split)
Se nella prima distribuzione il giocatore riceve due carte dello stesso valore può effettuare lo split e cioè:
• separare le due carte e aggiungere un'uguale puntata sulla seconda;
• proseguire il gioco come se il giocatore avesse due prime carte;
• aggiungere una carta su ciascuna carta separata.
Nel caso di due Assi il gioco doppio è consentito ma con diritto a una sola chiamata.
143
Blackjack
Strategia per lo split
Gli "split" nella dimensione di gioco britannica non pongono limiti al numero delle divisioni delle carte uguali
sebbene venga proibito al giocatore di "splittare" i quattro, i cinque e le figure, che l'istituto di regolamentazione del
gioco in Gran Bretagna ha valutato statisticamente come scommesse svantaggiose nei confronti del giocatore. Un
buon giocatore di black jack potrà all'occorrenza "splittare" i quattro e i cinque ma mai dovrebbe azzardare lo split di
due figure.
L'assicurazione (insurance)
Quando il banchiere si serve un Asso come carta scoperta, vi è la possibilità che faccia Black Jack con la seconda
carta, quindi i giocatori possono ricorrere all'Assicurazione. La posta dell'Assicurazione equivale alla metà della
puntata di base (quella sulla casella, per esempio: se il giocatore ha puntato 100 l'Assicurazione vale 50). Nel caso il
banco realizzi Black Jack il giocatore perderà tutta la puntata iniziale, ma verrà risarcito con il doppio del valore
dell'assicurazione (2:1): in pratica è come se la mano si concludesse con un "pari". Nel caso il banco non realizzi un
Black Jack l'assicurazione viene comunque persa indipendentemente dal risultato della mano.
Le diverse versioni
In Europa le carte sono scoperte: due per ciascun giocatore, una per il banco. Negli USA inoltre, il banco, oltre alla
sua carta scoperta, prende subito l'altra, che rimane però coperta.
In vari casinò si possono "splittare" (separare) le carte uguali fino a tre volte, eccetto gli assi che possono essere
separati solo una volta. Dopo lo split si può spesso (ma non dappertutto) raddoppiare la puntata. In genere non si
possono raddoppiare le mani soft (un asso con una carta che non sia figura). Esistono tuttavia dei casinò che
permettono di raddoppiare con qualsiasi combinazione iniziale.
Tra le varianti di Blackjack troviamo: Classico, Europeo, Spagnolo 21, Vegas Strip, Atlantic City, Blackjack Switch,
Multi-mano.
Strategia
La strategia del gioco varia a seconda delle regole locali e del numero dei mazzi usati. Al di là della scelta se
partecipare o meno al gioco, e alla posta puntata nella singola mano e alla possibilità di raddoppiare la posta, l'unica
scelta lasciata al giocatore è quella di stabilire se chiedere un'altra carta (e, se le prime due carte sono uguali, di
effettuare uno split, cioè di dividere la propria mano in due).
Strategia Base
Per effettuare i calcoli delle probabilità nelle varie situazioni sono stati utilizzati anche alcuni dei primi computer a
disposizione delle università. In particolare al MIT sono stati realizzati parecchi studi in questo campo. In base a
questi calcoli risulta ora possibile, basandosi soltanto sulle carte che si hanno in mano sapere quali sono le
probabilità che esca ogni tipo di carta. Basandosi su tali probabilità, è stata calcolata una regola (Strategia Base) che
stabilisce quale sia la decisione migliore da effettuare nelle varie circostanze.
144
Blackjack
145
Mano del giocatore
Carta scoperta del Banco
2
3
4
5
6
7
8
9
10
A
S
S
S
Totali hard
17-20
S
S
S
S
S
S
S
16
S
S
S
S
S
H
H
SU SU SU
15
S
S
S
S
S
H
H
H
SU
H
13-14
S
S
S
S
S
H
H
H
H
H
12
H
H
S
S
S
H
H
H
H
H
11
Dh Dh Dh Dh Dh Dh Dh Dh Dh
H
10
Dh Dh Dh Dh Dh Dh Dh Dh
H
H
9
H
Dh Dh Dh Dh
H
H
H
H
H
5-8
H
H
H
H
H
H
H
H
H
H
Totali soft
2
3
4
5
6
7
8
9
10
A
A,8 A,9
S
S
S
S
S
S
S
S
S
S
A,7
S
Ds Ds Ds Ds
S
S
H
H
H
A,6
H
Dh Dh Dh Dh
H
H
H
H
H
A,4 A,5
H
H
Dh Dh Dh
H
H
H
H
H
A,2 A,3
H
H
H
H
H
H
H
H
7
8
9
10
A
Dh Dh
Coppie
2
3
4
5
6
A,A
SP SP SP SP SP SP SP SP SP SP
10,10
S
S
S
S
S
S
S
9,9
SP SP SP SP SP
S
SP SP
S
S
8,8
SP SP SP SP SP SP SP SP SP SP
7,7
SP SP SP SP SP SP
H
H
H
H
6,6
SP SP SP SP SP
H
H
H
H
5,5
Dh Dh Dh Dh Dh Dh Dh Dh
H
H
4,4
H
2,2 3,3
S
H
S
H
S
SP SP
H
H
H
H
H
H
SP SP SP SP SP SP
H
H
H
H
Legenda:
S = Stand (Stare)
H = Hit (Carta)
Dh = Double (Raddoppio. Se non permesso, chiedere carta)
Ds = Double (Raddoppio. Se non permesso, stare)
SP = Split (Divisione)
SU = Surrender (Resa. Se non permessa, chiedere carta)
Questa strategia si applica con 3 o più mazzi di carte, il banco sta sui 17 soft, raddoppio su tutte le coppie, raddoppio
dopo la suddivisione consentito e blackjack che paga 3:2.
Blackjack
Contare le carte
Questi calcoli e questa regola si basano soltanto sulle carte in gioco in quel momento. Tuttavia è possibile sviluppare
una ulteriore strategia dovuta al fatto che il numero di carte presenti al tavolo da gioco (cioè il numero dei mazzi
utilizzati) è fisso e al fatto che le carte vengono mescolate soltanto all'inizio del gioco e si continua a giocare tra una
mano e l'altra senza rimescolare le carte, ma continuando ad utilizzare le carte rimanenti nel mazzo. Le carte
vengono rimescolate soltanto quando si raggiunge il cartoncino divisorio che di solito è posto intorno alla metà del
sabot. Tale carta divisoria determina la percentuale di penetrazione del mazzo, cioè il numero di carte che verranno
distribuite (rispetto alla totalità presente nei mazzi) prima che abbia luogo la mischiata. Più tale percentuale è alta e
maggiori saranno i vantaggi per il giocatore.[1]
Risulta pertanto possibile, anche se particolarmente difficile, ricordarsi quali carte sono già uscite e sapere quindi
quali rimangono nel mazzo. L'alto numero delle carte utilizzate rende difficile ricordare individualmente le singole
carte; risulta però possibile (anche se rimane difficile) ricordare se dal mazzo sono uscite più carte di basso valore
che carte di alto valore e di conseguenza calcolare la probabilità che dal mazzo venga pescata una carta di valore alto
o basso. Tale tecnica viene indicata con il nome di contare le carte.
Una situazione con un mazzo di carte con più carte alte che basse è favorevole al giocatore e sfavorevole al banco
(perché aumenta la probabilità del banco di superare il 21, dal momento che il banco agisce in modo fisso, che
consiste nel continuare a prendere un'ulteriore carta fintanto che non supera tutti i giocatori o finché non arriva a 17,
e per altri motivi). Questa difficile tecnica permette pertanto di conoscere quale sia il momento più propizio per
effettuare puntate più alte.
Del Black Jack esistono anche alcune versioni per essere giocate tra tutti giocatori, in cui la parte del mazziere viene
alternata tra i vari giocatori. All'interno delle case da gioco invece il ruolo del mazziere è sempre tenuto dal
personale della casa.
Stu Ungar
Stu Ungar, dotato di un quoziente intellettivo che lo classificava come "genio", e di una straordinaria memoria
fotografica, era in grado di contare tutte le carte presenti in un sabot di blackjack composto da sei mazzi di carte. Nel
1977 scommise 100.000 dollari con Bob Stupack, proprietario di un casinò a Las Vegas, che sarebbe riuscito a
contare tutte le carte di un sabot di blackjack composto da sei mazzi, indovinando le ultime tre carte. Ungar vinse la
scommessa.
Stu fu condannato nel 1982 dalla Commissione del New Jersey sul Gioco d'Azzardo, per presumibile imbroglio al
tavolo di blackjack in un casinò di Atlantic City. Il casinò sostenne che Ungar ponesse di nascosto delle fiches extra
sulle sue giocate vincenti, per garantirsi una vincita maggiore. Ungar negò sempre con forza l'accaduto.
La condanna gli impose di pagare 500 dollari, cifra quasi insignificante per lui, ma allo stesso tempo lo obbligava ad
ammettere di barare, cosa che si rifiutò sempre di fare: Ungar sosteneva che la sua memoria e l'abilità nel contare le
carte (tecnica non illegale) fossero doti naturali, e che per questo non aveva bisogno in alcun modo di barare al
tavolo da blackjack.
Ungar portò la causa in tribunale e vinse, evitando la multa di 500 dollari; dovette, comunque, pagare circa 50.000
dollari in spese legali e di viaggio. La sua reputazione restò intatta ma, nella sua biografia, dirà che la stanchezza per
i viaggi ed i dibattimenti fu tale da non permettergli di difendere il titolo nelle WSOP.
Il suo talento e la sua reputazione erano talmente notevoli da farlo escludere dal gioco nei casinò. Era virtualmente
impossibilitato a giocare a blackjack sia a Las Vegas che in qualunque altro posto.
146
Blackjack
147
Curiosità
Il film 21 si basa sullo sfruttamento di questo metodo per ottenere vittorie sicure.
Note
[1] Penetrazione del mazzo (http:/ / www. blackjack-online. bz/ contare-carte/ #penetrazione)
Voci correlate
• 21 (film)
• Edward O. Thorp
Poker
Poker
Luogo origine
[1]
Statunitense
Regole
N° giocatori
Squadre
Giro
Azzardo
Mazzo
3, 4, 5, 6 (versione italiana)
[1]
No
Senso orario
Sì
[1]
52 carte in numero variabile dipendente dal numero dei giocatori
Gerarchia semi Cuori, Quadri, Fiori, Picche
Gerarchia carte A, K, Q, J, 10, 9, 8, 7, 6, 5, 4, 3, 2
David Sklansky alle World Series di
Poker del 1979
« Se non riesci a individuare il pollo al tavolo da poker nella prima mezz'ora, allora il pollo sei tu. »
Poker
Il poker è una famiglia di giochi di carte nella quale alcune varianti sono classificabili come gioco d'azzardo, altre
come poker sportivo. Tali giochi sono caratterizzati da un sistema di combinazioni formate con le carte di ciascun
giocatore (il cui confronto determina il vincitore di ogni mano) e da un meccanismo di puntate successive che offre
molte possibilità tattiche e di influenza sugli altri giocatori, consentendo in particolare di ritirarsi con perdite
contenute dalle mani che non si ritiene di poter vincere.
Il grande successo del poker è dovuto al fatto che l'abilità del giocatore è molto più importante rispetto ad altri giochi
d'azzardo, al punto da consentire l'esistenza di giocatori professionisti: la fortuna è ovviamente determinante per le
singole mani ma la valutazione delle probabilità, l'osservazione del comportamento degli altri giocatori al fine di
intuire le loro combinazioni e l'esecuzione di bluff per indurli in errore fanno la differenza nell'arco di una partita.
Se le puntate sono costituite da denaro vero si tratta di cash game, ossia di gioco d'azzardo.
A partire dall'inizio degli anni novanta si è aperta per i giocatori la possibilità di giocare a Poker online, cioè
collegandosi mediante Internet a sale da Poker organizzate e sedendosi a tavoli virtuali ai quali si gioca contro altre
persone connesse dal proprio computer domestico. Tale sistema di gioco è cresciuto progressivamente negli anni
successivi, e costituisce oggi la principale modalità con la quale il poker è praticato a livello mondiale.
Il gioco
Il poker è giocato in una moltitudine di specialità e varianti, ma tutte seguono una medesima logica di gioco.
Le carte vengono distribuite in senso orario e allo stesso modo cambia il mazziere (dealer). Egli viene generalmente
segnalato con un bottone che diventa unico elemento per identificarlo e determinare, quindi, le puntate obbligatorie o
i turni di gioco.
Per ogni mano uno o più giocatori devono porre una puntata obbligatoria (cip) che serve alla creazione di un piatto
iniziale che i giocatori potranno contendersi. Il mazziere distribuisce le carte, coperte o scoperte, in base alle regole
della specialità giocata. Quindi cominciano, sempre secondo le regole della specialità giocata, i giri di scommesse,
nel quale a turno, ogni giocatore ha facoltà di "parlare", ossia di eseguire un'azione. Si gioca sempre in senso orario.
Le possibilità principali sono le seguenti:
• puntare (bet): il primo giocatore che apre il giro di scommesse mette una certa somma nel piatto;
• bussare o passare/dare la parola (check): il primo giocatore che apre il giro di scommesse può decidere al
momento di non puntare, il giocatore successivo a colui che ha passato deciderà se puntare o passare e così vale
anche per gli altri giocatori. Se tutti i giocatori passano il giro di scommesse è chiuso. Un giocatore non può
passare se il giocatore precedente ha puntato;
• vedere o chiamare (call): dopo che il giocatore ha puntato, gli altri giocatori sono obbligati a puntare almeno
altrettanto oppure uscire dalla mano.
• rilanciare (raise): un giocatore può scommettere una somma maggiore del minimo richiesto per restare in gioco,
ovviamente tutti gli altri giocatori sono tenuti a vedere o lasciare;
• lasciare (fold): un giocatore lascia qualora non sia intenzionato a vedere la puntata o il rilancio, ovvero consegna
le carte al mazziere e rinuncia al piatto, perdendo quanto aveva scommesso in precedenza. Un giocatore può
lasciare anche se ha possibilità di passare, ma questa scelta non viene mai presa in considerazione perché non ha
alcun senso.
Alla fine dell'ultimo turno di puntate resta un solo giocatore (ha fatto l'unica puntata e tutti gli altri hanno passato, o
ha rilanciato e gli altri rimasti hanno lasciato) o più giocatori che hanno puntato tutti la stessa somma (vedendo la
prima puntata o un rilancio successivo); in questo secondo caso, tipicamente più raro, avviene lo showdown: si
mostrano le carte dei giocatori e si confronta il punto di ciascuno: vince il punto di maggior valore a seconda della
variante. Normalmente il valore corrisponde alla forza della mano. Alcuni giochi, come l'Omaha 8 e lo Stud 8,
prevedono la ripartizione del piatto in parti uguali fra la mano col valore più alto e quella col valore più basso. In
altri giochi, fra cui Razz, 2-7 Single Draw e 2-7 Triple Draw, il piatto viene assegnato al giocatore che ha la mano
148
Poker
149
più bassa. Il giocatore che è in possesso del punto di maggior valore vince la mano e ha diritto di impossessarsi delle
fiches (o dei contanti) dei giocatori che hanno lasciato in precedenza e di quelli che sono stati sconfitti allo
showdown. Nel caso in cui due o più giocatori fossero in possesso dello stesso punto (caso molto raro), il piatto
viene diviso (split pot) in parti uguali ed ognuno dei suddetti giocatori ha diritto ad una parte del piatto.
Normalmente, durante le partite di poker vige la regola delle "chip al tavolo" secondo la quale, durante una mano,
possono essere puntate esclusivamente le chip presenti sul tavolo sin dall'inizio della mano in questione. Ne
consegue che un giocatore non in grado di coprire una puntata o un rilancio effettuato da un avversario, in quanto
non possiede abbastanza chip, è costretto ad abbandonare la mano. Quando un giocatore ha puntato tutte le proprie
chip nel piatto, esso è considerato all-in; ulteriori puntate che il giocatore non è in grado di coprire, nel caso in cui
nella mano fossero coinvolti più di due giocatori, andranno a costituire un secondo piatto per il quale competeranno
solo i giocatori che vi hanno puntato, quindi il giocatore precedentemente in all-in ne è escluso.[2] In ordine
cronologico, il piatto primario prende il nome di "Main Pot", mentre i piatto secondari, che vanno quindi a costituirsi
successivamente, sono detti "Side Pot".
Le specialità del poker possono essere raggruppate in tre categorie:
Draw poker
Ogni giocatore riceve cinque (nel poker tradizionale) o più carte tutte coperte. I giocatori possono cambiare
una o più carte per una o più volte.
Stud poker
I giocatori ricevono le carte una alla volta, alcune coperte altre scoperte. La maggior differenza tra lo stud e il
draw poker è l'impossibilità di cambiare le carte.
Community card poker
Ogni giocatore riceve un determinato numero di carte coperte (due nel Texas Hold'em o quattro nell'Omaha) e
può utilizzare un determinato numero di carte comuni per comporre il proprio punto.
Varianti del poker
Ogni specialità del poker può avere diverse varianti di gioco:
• a limite fisso (limit betting): sono possibili solo tre rilanci per round di scommessa, purché vi siano più di 2
giocatori; inoltre i rilanci stessi sono bloccati con un limite. La scommessa minima è raddoppiata solitamente con
il terzo giro di scommessa.
• limite al piatto (pot limit betting): diffuso in Europa, al giocatore è impedito di rilanciare una cifra superiore al
valore del piatto in quel momento. Serve per evitare che i piatti si ingrossino nel primo giro di scommessa.
• senza limiti (no limit): non ci sono limiti di scommessa.
• misto (mixed): si alternarno momenti con variante senza limite e a limite fisso.
• high-low split
Poker
150
Storia
Le origini del gioco del poker sono tuttora oggetto di dibattito.
Assomiglia molto a un gioco persiano ed è stato probabilmente
insegnato ai colonizzatori francesi di New Orleans dai marinai
persiani. Il nome deriva, probabilmente, dal termine francese
poque (ingannare), che deriva a sua volta dal tedesco pochen. Non
è chiaro se il poker derivi direttamente da giochi con quei nomi,
tuttavia viene considerato un insieme di tutti questi giochi che ne
hanno influenzato lo sviluppo fino al poker che conosciamo ai
giorni nostri.
La più antica testimonianza si ha dall'attore inglese Joseph Crowel,
che lo segnala nel New Orleans, giocato con un mazzo di 20 carte
e da 4 giocatori che scommettono su chi ha la combinazione
vincente. Il primo libro è di Green Jonathan H., An Exposure of
the Arts and Miseries of Gambling (G.B. Zieber, Filadelfia, 1843)
che ne descrive la diffusione da lì fino al Mississippi, dove il gioco
era un comune passatempo.
Subito dopo questa diffusione si inizia ad usare il mazzo francese
con 54 carte e si ha l'introduzione del colore. Durante la guerra
civile americana si hanno numerose aggiunte e le prime varianti
del gioco, draw poker, stud poker e community card poker),
seguite da numerose altre come il razz (variante in cui vince il
punto più basso) o lo Hi-Lo (variante in cui a vincere il piatto sono
2 o più giocatori). La diffusione del gioco negli altri continenti è
attribuito ai militari americani.
Doyle Brunson, due volte campione del mondo (1976,
1977, secondo nel 1980)
Nel primo novecento il gioco più diffuso è il 7 card stud, ma dopo
gli anni 50 si impongono i poker a carte comunitarie, in primis il
Texas Hold'em seguito dall'Omaha.
La nuova modalità di gioco, il torneo, comincia a diffondersi nei
casino americani dopo il primo WSOP (mondiale di poker che si
svolge tutti gli anni a Las Vegas) e di lì a poco si ha anche l'uscita
dei primi libri di strategia come Super/System di Doyle Brunson
(ISBN 1-58042-081-8) e The Book of Tells di Mike Caro (ISBN
0-89746-100-2), seguito poco dopo da The Theory of Poker di
David Sklansky (ISBN 1-880685-00-0).
Phil Hellmuth Jr, campione del mondo nel 1989,
detiene il primato di braccialetti WSOP vinti:11
Negli USA la popolarità del poker ha un'impennata senza precedenti durante i primi anni del XXI secolo, con
l'avvento del poker on-line e l'introduzione della telecamera per le carte coperte utilizzata durante i maggiori eventi,
ciò che ha contribuito a far diventare il gioco uno sport spettacolare. Gli spettatori possono ora seguire e
comprendere l'azione dei giocatori durante i maggiori eventi trasmessi, come il WSOP o il WPT (World Poker
Tour), che hanno riscosso enorme successo nella TV satellitare e via cavo. Questa tendenza sta avendo riscontro
anche in Europa in cui l'European Poker Tour è giunto alla sua ottava edizione[3] contribuendo all'enorme diffusione
a cui si assiste anche in Italia, dove sono sorte le prime associazioni come Italian Rounders. Nel giugno 2006, il
Casinò di Sanremo è stata la prima casa da gioco italiana ad ospitare un torneo di Texas Hold'em Poker; ha poi
ospitato la tappa italiana dell'European Poker Tour.
Poker
151
La formula di gioco utilizzata in questi casi è quella del torneo (per la formula del torneo vedi poker sportivo): il
giocatore paga l'iscrizione e riceve delle fiches (chiamate chip) con le quali gioca; finite le fiches il giocatore è
eliminato, ad eccezione dei tornei dove è consentito il rebuy. Gli ultimi ad essere eliminati sono i primi classificati
del torneo, e si dividono l'ammontare del montepremi (alimentato dalle iscrizioni).
Negli ultimi anni le WSOP, il WPT e l'European Poker Tour hanno avuto una notevole crescita anche grazie ai
numerosi satelliti organizzati on line, i quali permettono a chiunque di accedere a questi eventi che una volta erano
prerogativa di pochi a causa dei costi molto elevati. I campioni del mondo del 2003 e 2004, rispettivamente Chris
Moneymaker e Greg Raymer, hanno vinto la loro partecipazione al mondiale (Main Event WSOP) giocando un
satellite on line.
Anche in Italia il poker in TV ha attecchito: Sportitalia, Sky, Italia 1, 7 Gold e POKERItalia24 (sul digitale terrestre)
trasmettono partite di poker che riscuotono un notevole successo tra i telespettatori.
Tra i campioni italiani di maggior spessore troviamo Max Pescatori vincitore di due braccialetti alle WSOP, uno nel
2006 e uno nel 2008[4], Luca Pagano che detiene il record delle presenze a premio nell'EPT (ben 18, di cui 6 tavoli
finali)[5], Dario Alioto vincitore del torneo di Omaha alle WSOP Europe del 2007[6] e Dario "Caterpillar" Minieri,
vincitore dell'evento $2.500 No Limit Hold'Em alle WSOP del 2008[7]. Oltre Pescatori, Alioto e Minieri, l'unico
altro italiano ad aver vinto un braccialetto alle WSOP è Valter Farina, che si è aggiudicato l'evento $1.500 Seven
Card Stud nel 1995. Viene spesso contrassegnato con la bandiera italiana agli eventi internazionali Jeff Lisandro,
vincitore di ben cinque braccialetti, ma in realtà il giocatore è australiano, e ha origini italiane.
Note
[1]
[2]
[3]
[4]
Giochi di carte, di Marina Bono, 1ª edizione luglio 2010, pag. 116, ed. KeyBook, ISBN 978-88-6176-254-1.
Regole del poker (http:/ / www. pokerstars. it/ poker/ rules/ ). PokerStars
EPT Official Page (http:/ / www. europeanpokertour. com/ ). European Poker Tour
The Hendon Mob - Max Pescatori (http:/ / pokerdb. thehendonmob. com/ player. php?a=r& n=3195& sort=place& dir=asc). The Hendon
Mob
[5] The Hendon Mob - Luca Pagano (http:/ / pokerdb. thehendonmob. com/ player. php?a=r& n=326). The Hendon Mob
[6] The Hendon Mob - Dario Alioto (http:/ / pokerdb. thehendonmob. com/ player. php?a=r& n=50080). The Hendon Mob
[7] The Hendon Mob - Dario Minieri (http:/ / pokerdb. thehendonmob. com/ player. php?a=r& n=53606& sort=place& dir=asc). The Hendon
Mob
Voci correlate
•
•
•
•
•
•
•
•
•
•
•
•
•
•
Regole e meccanica del poker
Punti del poker
Teorema fondamentale del poker
Specialità e varianti del poker
Poker sportivo
WSOP
European Poker Tour
Federazione Italiana Gioco Poker
Cash game
Gioco
Giochi con le carte
Giocatore professionista di poker
Skill games
PokerTH
• Lista di videogiochi di poker
Poker
152
Altri progetti
•
Wikibooks contiene testi o manuali: http://it.wikibooks.org/wiki/Texas Hold'em
• Wikizionario contiene la voce di dizionario: http://it.wiktionary.org/wiki/poker
•
Wikiquote contiene citazioni: http://it.wikiquote.org/wiki/Poker
•
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Poker
Collegamenti esterni
• Poker (http://www.dmoz.org/World/Italiano/Giochi/Carte/Poker) su Open Directory Project ( Segnala (http://
www.dmoz.org/public/suggest?cat=World/Italiano/Giochi/Carte/Poker) su DMoz un collegamento pertinente
all'argomento "Poker")
• Federazione Italiana Gioco Poker (http://www.figp.it)
Roulette
La roulette è un gioco d'azzardo di origine italiana (la girella)
introdotto in Francia nel XVIII secolo.
Consiste in un disco, diviso in 37 (o 38, nella roulette americana)
settori numerati da 0 a 36 e colorati alternativamente in rosso e
nero, mentre lo zero (0), come il doppio zero (00) quando è
presente, è normalmente colorato di verde o in bianco (in
pochissimi casi); il disco viene fatto ruotare nella sua sede dal
gestore del banco (il croupier) che successivamente vi lancia una
pallina, originariamente in avorio, oggi in resina o teflon: la
pallina viene fatta ruotare in senso opposto a quello della roulette,
e si ferma cadendo in uno dei settori numerati, determinando il
numero vincente.
La roulette
Linguaggio
La lingua comunemente usata dai croupiers durante il gioco della roulette è il francese, nel quale vengono
pronunciate le frasi che regolano ogni fase del gioco:
•
•
•
•
Faites vos jeux (apertura del tavolo, dopo il pagamento delle vincite precedenti)
Les jeux sont faits (al lancio della pallina)
Rien ne va plus (fine delle puntate, quando l'uscita del numero è imminente')
l'annuncio del numero uscito, come nel seguente esempio: "27, rouge, impair et passe", seguito dall'indicazione
delle puntate vincenti dei giocatori (plein, cheval, ecc.) o da "rien au numéro" se non vi sono vincite.
Roulette
153
Tipologie di roulette
Vi possono essere tre tipi di tavolo:
• roulette francese, il tavolo classico, con i numeri da 0 a 36. È la
tipologia più diffusa; si differenzia dalle altre due tipologie perché,
nel caso dell'uscita dello 0, le puntate sulle chance semplici vengono
imprigionate per la mano in corso se poi esce un numero
corrispondente alla chance puntata in precedenza, la puntata viene
rimessa in libertà e si comporterà come una nuova puntata che può
quindi vincere o perdere (regola dell'en prison). C'è inoltre una
deroga convenzionalmente utilizzata in quasi tutti i casinò europei:
quando esce lo 0 le puntate sulle chance semplici si possono
dividere con il banco. Ad esempio ho puntato 20 pezzi su rosso ed
esce zero ritiro dal tavolo 10 pezzi ed il banco incamera la
differenza.
• roulette inglese, come la roulette francese, ma senza la regola
dell'en prison. Il tappeto di gioco è diverso per due motivi:
Tavolo della roulette francese
nel tavolo francese ci sono tre croupier a far svolgere il gioco mentre in
quello inglese e americano uno; ci sono gli annunci (vicini dello zero, serie 5/8 e gli orfanelli) e sul tappeto è
rappresentato il cilindro con i tre settori degli annunci;
• roulette americana, si differenzia dalle precedenti due per la presenza di una trentottesima casella: il doppio zero
(00), anch'essa verde; come nella roulette inglese, non esiste la regola dell'en prison e ci sono quattro tipi di
annunci e tutti giocano in pieno:
GOLD
(5,7,11,17,20,22,26,30,32,34)
SILVER
(6,8,9,12,18,19,21,28,29,31) SMALL (0,2,4,14,16,23,33,35)
(00,1,3,10,13,15,24,25,27,36)
AMERICANA
Puntate e sistemi di gioco
Le combinazioni su cui è possibile puntare sono svariate, ognuna delle quali è quotata 36/n-1:1, essendo n la quantità
di numeri compresi nella combinazione scelta:
•
•
•
•
•
Plein, singoli numeri in cui, in caso di vittoria, si vince 35 volte la somma puntata
Cheval, cavalli, o coppie di numeri in cui, in caso di vittoria, si vince 17 volte la somma puntata
Transversale Pleine, terzine in cui, in caso di vittoria, si vince 11 volte la somma puntata
Carrè, quartine in cui, in caso di vittoria, si vince 8 volte la somma puntata
Transversale Simple, sestine in cui, in caso di vittoria, si vince 5 volte la somma puntata
Roulette
154
• Douzaine, dozzine (prima, seconda o terza) in cui, in caso di
vittoria, si vince 2 volte la somma puntata
• Colonne, colonne (prima, seconda o terza colonna del tavolo) in
cui, in caso di vittoria, si vince 2 volte la somma puntata
Puntate Semplici
Ci sono poi 3 ulteriori tipologie di puntata, chiamate Chanches
Simples, che in caso di vittoria, restituiscono 1 volta la somma puntata
e sono:
• Pair ou Impair, o anche Even or Odd, ovvero numeri pari o
dispari
• Manque ou Passe, ovvero i numeri da 1 a 18 o quelli da 19 a 36
Sistemi di gioco
• Rouge ou Noir, ovvero i numeri rossi o neri
Esistono poi sistemi di gioco codificati a livello internazionale, i più comuni sono: i vicini dello zero, la serie 5/8 e
gli orfanelli.
• Zero e i vicini dello zero ("zéro et les voisins du zéro") sono una serie di 17 numeri ubicati sul cilindro alla
destra e alla sinistra dello zero tra il 22 e il 25 compresi, e si possono giocare con un totale di 9 fiches. I numeri
in questione sono 0-2-3, 4-7, 12-15, 18-21, 19-22, 25-26-28-29, 32-35 con due fiches sullo 0-2-3 e sul carrè
25-29.
• La serie 5/8 ("tiers du cylindre" o più semplicemente "tiers") è composta da 12 numeri giocabili con 6 fiches
su 6 cavalli, i numeri sono 5-8, 10-11, 13-16, 23-24, 27-30, 33-36, e sono ubicati, sul cilindro, in maniera
diametralmente opposta ai "vicini dello zero".
• Gli orfanelli (o "orphelins"), così chiamati proprio perché non facenti parte di nessuna delle due serie sopra
esposte, sono gli 8 numeri rimanenti, ossia 1, 6-9, 14-17, 17-20, 31-34 (l'1 pieno, gli altri a cavallo), si possono
giocare con 5 fiches e sono ubicati, in parte sul lato sinistro ed in parte sul lato destro del cilindro, che per
consuetudine viene rappresentato con lo "0" in alto.
In Scozia si usa giocare la "tier press", che altro non è che la tier normale (5-8-10-11-13-16-23-24-27-30-33-36) con
l'aggiunta dei pieni dei primi quattro numeri (ossia 5-8-10-11) per un totale di 10 fiches.
Altra celebre e diffusa puntata è quella denominata "nassa". Come gli orfanelli, si effettua puntando 5 fiches, che
vanno a coprire 8 numeri vicini dello zero: il 26 e il 19 pieni e i cavalli 0-3, 12-15, 32-35. È considerata la giocata
ridotta rispetto al sistema "vicini dello zero" e offre il 21.6% di probabilità di vincita.
Statistica
La roulette, come tutti i giochi d'azzardo nei quali è presente un banco, garantisce al banco stesso una percentuale
matematica di vantaggio sul giocatore, che in questo caso risulta essere del 2,70% circa, una percentuale tutto
sommato esigua rispetto a giochi tipo il Lotto od il Totocalcio dove la stessa è addirittura del 60% circa. Non ci sono
sistemi di gioco che garantiscano una vincita sicura. Nel 1985 Olivier Doria ipotizzò un sistema basato sull'incrocio
di parabole dirette in senso opposto. E cioè piazzando una telecamera che calcolasse, al momento del lancio, la
velocità della pallina alla partenza e, simultaneamente la velocità della ruota in senso opposto, si sarebbe potuto
calcolare il settore della roulette nel quale la pallina avrebbe avuto più probabilità di atterrare.
Se si gioca un numero singolo, le probabilità di vincita calcolate sono del 2,702703% per i tavoli francese e inglese,
e del 2,63158% per il tavolo americano; in caso di vincita il banco paga 35 volte la posta giocata.
Roulette
155
Voci correlate
• Casa da gioco
• Gioco d'azzardo
• Baratteria (gioco)
Altri progetti
•
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Roulette
156
Hors Catégorie
Continuità assoluta
In matematica, il concetto di continuità assoluta si applica a due concetti distinti.
Continuità assoluta delle funzioni reali
In matematica, una funzione a valori reali di una variabile reale si dice assolutamente continua se per ogni numero
positivo piccolo a piacere esiste un numero positivo
tale che per ogni sequenza finita o infinita di intervalli
disgiunti tali che:
allora:[1]
Ogni funzione assolutamente continua risulta a variazione limitata e uniformemente continua e, di conseguenza,
continua. Ogni funzione lipschitziana è assolutamente continua, mentre non è vero il viceversa. La funzione di
Cantor, ad esempio, è continua in tutto il suo dominio, ma non è assolutamente continua.
Teorema fondamentale del calcolo integrale di Lebesgue
Dato per ipotesi che una funzione sia a variazione limitata, l'assoluta continuità è condizione necessaria e sufficiente
alla validità del teorema fondamentale del calcolo integrale.
Una funzione
derivata
definita sull'intervallo compatto
a valori in
è assolutamente continua se possiede una
definita quasi ovunque e integrabile secondo Lebesgue tale che:
In modo equivalente, esiste una funzione
su
integrabile secondo Lebesgue tale che:
Tale definizione di assoluta continuità è detta teorema fondamentale del calcolo integrale di Lebesgue. Se le
precedenti condizioni equivalenti sono verificate si ha:
quasi ovunque.
Continuità assoluta
157
Continuità assoluta delle misure
Se
e
sono misure sulla stessa sigma-algebra, la misura
per ogni insieme A per il quale
si dice assolutamente continua rispetto a
se
. Questa situazione viene presentata con la scrittura
.[2]
In modo equivalente, per ogni
esiste
tale che:
per ogni insieme E della sigma-algebra tale che:[3]
Proprietà
Se esiste un insieme B tale per cui:
per ogni insieme E della sigma-algebra, allora tale misura si dice concentrata su B.
Misure concentrate su insiemi rispettivamente disgiunti sono dette mutuamente singolari. In particolare, se
sono mutuamente singolari si scrive
e
.
Un teorema di particolare importanza nell'ambito della continuità assoluta delle misure afferma che se
due misure limitate, allora esiste un'unica coppia di misure positive
e
sono
tali che:
La decomposizione:
è detta decomposizione di Lebesgue di
relativamente a
, ed è unica.[4]
Il teorema di Radon-Nikodym afferma inoltre che esiste un'unica funzione
tale che:
per ogni insieme E della sigma-algebra. Il teorema stabilisce, in particolare, che esiste una funzione misurabile
valori in
, denotata con:
tale che per ogni insieme misurabile A si ha:
La funzione
si dice derivata di Radon-Nikodym di
rispetto
.
a
Continuità assoluta
Collegamento fra continuità assoluta delle funzioni reali e delle misure
Una misura μ sui sottoinsiemi di Borel della retta reale è assolutamente continua rispetto alla misura di Lebesgue se
e solo se la funzione
è una funzione reale assolutamente continua.
Note
[1]
[2]
[3]
[4]
W. Rudin, op. cit., Pag. 165
W. Rudin, op. cit., Pag. 121
W. Rudin, op. cit., Pag. 125
W. Rudin, op. cit., Pag. 122
Bibliografia
• Walter Rudin, Real and Complex Analysis, Mladinska Knjiga, McGraw-Hill, 1970. ISBN 0070542341
Integrale
In analisi matematica, l'integrale è un operatore che, nel caso di una funzione di una sola variabile, associa alla
funzione l'area sottesa dal suo grafico entro un dato intervallo nel dominio. Si tratta dell'operazione inversa a quella
di derivazione.
Cenni storici
L'idea di base del concetto di integrale era nota ad Archimede di Siracusa, vissuto tra il 287 ed il 212 a.C., ed era
contenuta nel metodo da lui usato per il calcolo dell'area del cerchio o del segmento di parabola, detto metodo di
esaustione.
Nel XVII secolo alcuni matematici trovarono altri metodi per calcolare l'area sottesa al grafico di semplici funzioni,
e tra di essi figurano ad esempio Fermat (1636) e Nicolaus Mercator (1668).
Nel diciassettesimo e diciottesimo secolo Newton, Leibniz, Johann Bernoulli scoprirono indipendentemente il
teorema fondamentale del calcolo integrale, che ricondusse tale problema alla ricerca della primitiva di una funzione.
La definizione di integrale per le funzioni continue in tutto un intervallo, introdotta da Pietro Mengoli ed espressa
con maggiore rigore da Cauchy, venne posta su base diversa da Riemann in modo da evitare il concetto di limite, e
da comprendere classi più estese di funzioni. Nel 1875 Gaston Darboux mostrò che la definizione di Riemann può
essere enunciata in maniera del tutto simile a quella di Cauchy, purché si intenda il concetto di limite in modo un po'
più generale. Per questo motivo si parla di integrale di Cauchy-Riemann.
158
Integrale
159
Notazione
Il simbolo
che rappresenta l'integrale nella notazione matematica fu introdotto da Leibniz alla fine del XVII
secolo. Il simbolo si basa sul carattere ſ (esse lunga), lettera che Leibniz utilizzava come iniziale della parola summa,
in latino somma, poiché questi considerava l'integrale come una somma infinita di addendi infinitesimali.
Esistono leggere differenze nella notazione dell'integrale nelle
letterature di lingue diverse: il simbolo inglese è piegato verso destra,
quello tedesco è dritto mentre la variante russa è piegata verso sinistra.
Introduzione euristica
Si consideri una funzione
reale di variabile reale
definita su un intervallo chiuso e limitato dell'asse
Quando si procede a calcolare l'integrale di
delle ascisse.
in un intervallo,
Il simbolo di integrale nella letteratura (da
sinistra) inglese, tedesca e russa.
è
detta funzione integranda e l'intervallo è detto intervallo di
integrazione. Il valore dell'integrale della funzione calcolato
nell'intervallo di integrazione è pari all'area (con segno) della figura che ha per bordi il grafico di
, l'asse delle
ascisse e i segmenti verticali condotti dagli estremi dell'intervallo di integrazione agli estremi del grafico della
funzione. Il numero reale che esprime tale area viene chiamato integrale della funzione esteso all'intervallo di
integrazione.
Se il grafico della funzione è costituito da uno o più segmenti, la figura si può scomporre in rettangoli o trapezi, di
cui si conoscono le aree: la somma algebrica di tali aree è l'integrale cercato. Un tale approccio è utilizzato, ad
esempio, nell'integrale di Riemann, in cui il calcolo dell'area può essere eseguito suddividendo la figura in sottili
strisce verticali assimilabili a rettangoli: calcolando l'area di ciascun rettangolo e sommando i risultati così ottenuti si
può avere un'approssimazione del valore dell'area della figura, e suddividendo in strisce sempre più sottili si
ottengono approssimazioni sempre migliori dell'integrale cercato. A partire da una tale descrizione informale, è
possibile costruire un modello rigoroso suddividendo un intervallo di integrazione
in intervalli del tipo
, con
immagine è
,
e
. Per ciascun intervallo si considera un punto
, e si costruisce il rettangolo che ha per base l'intervallo
e per altezza
la cui
. L'area
della figura costituita da tutti i rettangoli così costruiti è data dalla somma di Cauchy-Riemann:
Se al diminuire dell'ampiezza degli intervalli
piccolo di un numero
, la funzione
i valori così ottenuti si concentrano in un intorno sempre più
è integrabile sull'intervallo
ed
è il valore del suo integrale.
Affinché il valore dell'integrale non dipenda dalla suddivisione degli intervalli utilizzata si pone la condizione che la
curva sia uniformemente continua all'interno del singolo intervallo in cui è stato suddiviso l'intervallo di
integrazione. Ponendo
, se vale la continuità uniforme si possono infatti considerare due punti
e
interni all'intervallo
e le altezze dei rettangoli relativi a
pone
. Il numero di tali intervalli di ampiezza
ed
differiscono della quantità
come la più grande delle quantità
rettangolo conseguente alla scelta del punto
della somma di
o del punto
rettangolini è quindi al massimo pari a:
è pari a:
. Da ciò discende che, se si
, la differenza di valutazione dell'area del generico
è al massimo
. La differenza di valutazione
Integrale
160
Tale discrepanza di valutazione diminuisce al tendere a zero dell'ampiezza del generico intervallo in cui è suddiviso
, e questo motiva la scelta di una funzione uniformemente continua.
Definizione
La prima definizione rigorosa ad essere stata formulata di integrale di una funzione su un intervallo è l'integrale di
Riemann, formulato da Bernhard Riemann.
L'integrale di Lebesgue è una generalizzazione dell'integrale di Riemann, e per mostrarne la relazione è necessario
utilizzare la classe delle funzioni continue a supporto compatto, per le quali l'integrale di Riemann esiste sempre.
Siano e due funzioni continue a supporto compatto su
. Si può definire la loro distanza nel seguente
modo:[1]
Munito della funzione distanza, lo spazio delle funzioni continue a supporto compatto è uno spazio metrico. Il
completamento di tale spazio metrico è l'insieme delle funzioni integrabili secondo Lebesgue.[2][3]
In letteratura esistono diversi altri operatori di integrazione, tuttavia essi godono di minore diffusione rispetto a quelli
di Riemann e Lebesgue.
Integrale di Riemann
Sia
l'insieme delle funzioni limitate e continue a tratti sull'intervallo
, e tali da essere continue da
destra:
Si definisca la norma:
Sia
una partizione di
partizione
e
la funzione indicatrice dell'i-esimo intervallo della
.
L'insieme
delle possibili partizioni dell'intervallo
costituisce uno spazio vettoriale normato, con
norma data da:
L'insieme
è denso in
. Si definisce la trasformazione lineare limitata
nel
[4]
seguente modo:
Si dimostra che un operatore lineare limitato che mappa uno spazio vettoriale normato in uno spazio normato
completo può essere sempre esteso in modo unico ad un operatore lineare limitato che mappa il completamento dello
spazio di partenza nel medesimo spazio di arrivo. Poiché i numeri reali costituiscono un insieme completo,
l'operatore può quindi essere esteso ad un operatore che mappa il completamento
di
in
.
Si definisce integrale di Riemann l'operatore
, e si indica con:[5]
Integrale
161
Integrale di Lebesgue
Sia
una misura su una sigma-algebra
n-spazio euclideo
di sottoinsiemi di un insieme
. Ad esempio,
o un qualche suo sottoinsieme Lebesgue-misurabile,
sottoinsiemi Lebesgue-misurabili di
e
può essere un
la sigma-algebra di tutti i
la misura di Lebesgue.
Nella teoria di Lebesgue gli integrali sono limitati a una classe di funzioni, chiamate funzioni misurabili. Una
funzione è misurabile se la controimmagine di ogni insieme aperto del codominio è in
, ossia se
è
un insieme misurabile di
.[6] L'insieme delle funzioni misurabili è chiuso rispetto alle
per ogni aperto
operazioni algebriche, ed in particolare la classe è chiusa rispetto a vari tipi di limiti puntuali di successioni.
Una funzione semplice è una combinazione lineare finita di funzioni indicatrici di insiemi misurabili.[7] Siano i
numeri reali o complessi
i valori assunti dalla funzione semplice e sia:
Allora:[7]
dove
è la funzione indicatrice relativa all'insieme
per ogni i.
L'integrale di Lebesgue di una funzione semplice è definito nel seguente modo:
Sia
una funzione misurabile non negativa su
sull'insieme
rispetto alla misura
a valori sulla retta reale estesa. L'integrale di Lebesgue di
è definito nel seguente modo:[8]
dove l'estremo superiore è valutato considerando tutte le funzioni semplici
dell'integrale è un numero nell'intervallo
tali che
. Il valore
.
L'insieme delle funzioni tali che:
è detto insieme delle funzioni integrabili su
funzioni sommabili, ed è denotato con
secondo Lebesgue rispetto alla misura
, o anche insieme delle
.
Anche l'integrale di Lebesgue è un funzionale lineare, e considerando una funzione definita su un intervallo
teorema di Riesz permette di affermare che per ogni funzionale lineare
finita
su
su
il
è associata una misura di Borel
tale che:[9]
In questo modo il valore del funzionale dipende con continuità dalla lunghezza dell'intervallo di integrazione.
Integrale
162
Integrale in più variabili
Sia:
un vettore nel campo reale. Un insieme del tipo:
è detto k-cella. Sia
definita su
Tale funzione è definita su
una funzione continua a valori reali, e si definisca:
ed è a sua volta continua a causa della continuità di
si ottiene una classe di funzioni
sull'intervallo
continue su
. Iterando il procedimento
che sono il risultato dell'integrale di
rispetto alla variabile
. Dopo k volte si ottiene il numero:
Si tratta dell'integrale di
su
rispetto a
, e non dipende dall'ordine con il quale vengono eseguite le k
integrazioni.
In particolare, sia
Inoltre, sia
. Allora si ha:
una funzione a supporto compatto e si ponga che
contenga il supporto di
. Allora è possibile
scrivere:
Nell'ambito della teoria dell'integrale di Lebesgue è possibile estendere questa definizione a funzioni di carattere più
generale.
Una proprietà di notevole importanza dell'integrale di una funzione in più variabili è la seguente. Siano:
•
una funzione iniettiva di classe
jacobiana
•
sia diversa da 0 ovunque in
definita su un aperto
e tale che la sua matrice
.
una funzione a supporto compatto continua definita su
e tale che
contenga il supporto di
.
Allora si ha:
L'integrando
ha un supporto compatto grazie all'invertibilità di
per ogni
che garantisce la continuità di
in
, dovuta all'ipotesi
per il teorema della funzione inversa.
Integrale
163
Continuità e integrabilità
Una condizione sufficiente ai fini dell'integrabilità è che una funzione definita su un intervallo chiuso e limitato sia
continua. Una funzione continua definita su un compatto, e quindi continua uniformemente per il teorema di
Heine-Cantor, è dunque integrabile.
Assoluta integrabilità
Una funzione
integrabile
si dice assolutamente integrabile su un intervallo aperto del tipo
se su tale intervallo è
. Viceversa, non tutte le funzioni integrabili sono assolutamente integrabili: un esempio di funzione
di questo tipo è
.
Il teorema sull'esistenza degli integrali impropri all'infinito garantisce che una funzione
sia integrabile su un intervallo del tipo
assolutamente integrabile
.
Proprietà degli integrali
Di seguito si riportano le proprietà principali dell'operatore integrale.
Linearità dell'integrale
Siano f e g due funzioni continue definite in un intervallo [a, b] e siano
. Allora:
Additività
Sia f continua e definita in un intervallo
e sia
. Allora:
Monotonia (o teorema del confronto)
Siano f e g due funzioni continue definite in un intervallo
e tali che
in
. Allora:
Valore assoluto
Tale teorema si potrebbe considerare come un corollario del teorema del Confronto. Sia f integrabile in un intervallo
[a, b], allora si ha:
Integrale
164
Teorema della media
Se
è continua allora esiste
tale che:
Calcolo differenziale e calcolo integrale
Il teorema fondamentale del calcolo integrale, grazie agli studi ed alle intuizioni di Leibniz, Newton, Torricelli e
Barrow, stabilisce la relazione esistente tra calcolo differenziale e calcolo integrale.
Funzione Integrale
Sia
una funzione definita su un intervallo
chiuso e limitato
, dove
di
contenuto in
, al variare dell'intervallo
è fissato e l'altro estremo
. Tale funzione si dice funzione integrale di
La variabile di integrazione
. Se la funzione è integrabile su ogni intervallo
varia il valore dell'integrale. Si ponga
è variabile: l'integrale di
su
diventa allora una funzione
o integrale di Torricelli, e si indica con:
è detta variabile muta, e varia tra
e
.
Teorema fondamentale del calcolo integrale
La prima parte del teorema è detta primo teorema fondamentale del calcolo, e garantisce l'esistenza della primitiva
per funzioni continue. La seconda parte del teorema è detta secondo teorema fondamentale del calcolo, e consente di
calcolare l'integrale definito di una funzione attraverso una delle sue primitive.
Sia
una funzione integrabile. Si definisce la funzione
La prima parte del teorema afferma che
allora
è differenziabile in
dove
è una funzione continua in
nel seguente modo:
. Se inoltre
è una funzione continua
è continua in un punto allora
è differenziabile in tal
e si ha:
è la derivata di
. Più precisamente, se
punto, e vale la precedente relazione.
La seconda parte del teorema non assume la continuità di
primitiva
su
. Se
è integrabile si ha:
e tale relazione è detta formula fondamentale del calcolo integrale.
, una funzione che ammette una
Integrale
165
Infinite Primitive
Nel caso in cui si ha:
allora, poiché la derivata di una funzione costante è nulla:
dove
è una qualunque costante in
ammette primitiva
primitive di
Infatti, siano
denota l'operazione di derivazione. Quindi, se una funzione
allora esiste un'intera classe di primitive del tipo
sono della forma
.
e
due primitive di
derivata prima di
Quindi
e
. Viceversa, tutte le
e si consideri la funzione
. La
è data da:
si mantiene costante su tutto l'intervallo
, e ciò implica che:
La condizione sufficiente per l'esistenza di una primitiva è data dal fatto che se
è continua in
, allora
ammette una (e dunque infinite) primitive per il primo teorema fondamentale del calcolo integrale.
Integrale improprio
Un integrale improprio è un limite della forma:
oppure:
Un integrale è improprio anche nel caso in cui la funzione integranda non è definita in uno o più punti interni del
dominio di integrazione.
Integrale indefinito
Il problema inverso a quello della derivazione consiste nella ricerca di tutte le funzioni la cui derivata sia uguale a
una funzione assegnata. Questo problema è noto come ricerca delle primitive di una funzione.
La totalità delle primitive di una funzione
denota l'integrale indefinito della funzione
si chiama integrale indefinito di tale funzione. Il simbolo:
in
. La funzione
è detta anche in questo caso funzione
integranda.
Ogni funzione continua in un intervallo ammette sempre integrale indefinito, ma non è detto che sia derivabile in
ogni suo punto. Se è una funzione definita in un intervallo nel quale ammette una primitiva
allora l'integrale
indefinito di
dove
è:
è una generica costante reale.
Integrale
166
Metodi di integrazione
Il caso più semplice che può capitare è quando si riconosce la funzione integranda essere la derivata di una funzione
nota . In casi più complessi esistono numerosi metodi per trovare la funzione primitiva. In particolare, tra le
tecniche più diffuse per la semplificazione della funzione integranda vi sono le seguenti due:
• Se l'integranda è il prodotto di due funzioni, l'integrazione per parti riduce l'integrale alla somma di due integrali,
di cui uno calcolabile immediatamente grazie alla formula fondamentale del calcolo integrale.
• Se l'integranda è trasformazione di una derivata nota attraverso una qualche funzione derivabile, l'integrazione per
sostituzione riporta il calcolo all'integrale di quella derivata nota, modificato per un fattore di proporzionalità che
dipende dalla trasformazione in gioco.
Stima di somme tramite integrale
Un metodo che consente di ottenere la stima asintotica di una somma è l'approssimazione di una serie tramite il suo
integrale. Sia
una funzione monotona non decrescente. Allora per ogni
e ogni intero
si ha:
Infatti, se
la proprietà è banale, mentre se
si osserva che la funzione è integrabile in ogni intervallo
chiuso e limitato di
, e che per ogni
vale la relazione:
Sommando per
si ottiene dalla prima disuguaglianza:
mentre dalla seconda segue che:
Aggiungendo ora
e
alle due somme precedenti si verifica la relazione.
Integrali di Denjoy, Perron, Henstock e altri
Sono state sviluppate altre definizioni di integrale, per diversi scopi. I tre qui nominati condividono la validità del
teorema fondamentale del calcolo integrale in una forma più generale di Riemann e Lebesgue.
Il primo in ordine cronologico ad essere definito è stato l'integrale di Denjoy, definito per mezzo di una classe di
funzioni che generalizza le funzioni assolutamente continue. Successivamente, solo due anni dopo, Perron ha dato la
sua definizione, con un metodo che ricorda le funzioni maggioranti e minoranti di Darboux. In ultimo, Ralph
Henstock (e indipendentemente, Jaroslaw Kurzweil) ha dato una terza definizione equivalente, detta anche integrale
di gauge, che sfrutta una leggera generalizzazione della definizione di Riemann, la cui semplicità rispetto alle altre
due è probabilmente il motivo per cui questo integrale è più noto con il nome del matematico inglese che con quelli
di Denjoy e Perron.
Integrale
167
Integrale di Ito
L'integrale di Ito fa parte dell'analisi di Itō per i processi stocastici.
In letteratura è introdotto utilizzando varie notazioni: una di queste è sicuramente:
dove
è il
processo di Wiener. L'integrale non è definito come un integrale ordinario, in quanto, il processo di Wiener ha
variazione totale infinita, in particolare gli strumenti canonici di integrazione di funzioni continue non sono
sufficienti. Pertanto si cerca in questa pubblicazione di definire formalmente l'integrale di Itô (o integrale stocastico).
L'utilizzo principale di tale strumento matematico è nel calcolo differenziale di equazioni in cui sono coinvolti,
appunto, integrali stocastici, che inseriti in equazioni volte a modellizzare un particolare fenomeno (moto aleatorio
delle particelle, prezzo delle azioni nei mercati finanziari ecc.) rappresentano il contributo aleatorio sommabile
(rumore) dell'evoluzione del fenomeno stesso.
Esempi di calcolo di un integrale
• In base alle informazioni fornite dal primo teorema fondamentale del calcolo integrale possiamo effettuare il
calcolo di un integrale cercando una funzione la cui derivata coincide con la funzione da integrare. A questo
scopo possono essere d'aiuto le tavole d'integrazione.
Così per effettuare il calcolo dell'integrale della funzione vista in precedenza
attraverso la ricerca di
una primitiva si ricorre alla formula
la cui derivata coincide proprio con
.
Prendendo in considerazione la (già esaminata precedentemente) funzione
Mentre per quanto concerne l'integrale definito nel compatto
ed integrandola si ottiene
si ha, in forza del secondo teorema fondamentale
del calcolo integrale
esattamente (ovviamente) lo stesso risultato ottenuto in precedenza.
• Supponiamo di fissare un sistema di riferimento cartesiano attraverso le rette ortogonali ed orientate delle ascisse
e delle ordinate. Supponiamo ora che su tale sistema di assi sia definita una retta la cui equazione esplicita è
. Si vuole calcolare l'integrale di tale retta definita sul compatto
situato sull'asse delle
ascisse.
Supponiamo per semplicità che i punti a e b si trovino sul semiasse positivo delle ascisse e siano entrambi positivi.
Allora l'area sottesa alla retta considerata nel compatto
è pari all'area di un trapezio che "poggiato" in
orizzontale sull'asse delle ascisse è caratterizzato da un'altezza pari a
, base maggiore
. L'area di tale figura è data, come noto dalla geometria elementare, dalla formula
ovvero
e base minore
,
.
Nell'ottica del calcolo dell'integrale di questa retta definita nel compatto
intervallo, dividendolo in n parti uguali
effettuiamo una partizione di tale
Integrale
168
Nel generico intervallo
scegliamo come punto arbitrario il punto più esterno
qualsiasi punto dell'intervallo), considerando la funzione
nel generico punto
(ma andrebbe bene
interno all'intervallo
.
Si avrà quindi
, e la somma integrale di Riemann diventa
nella quale la progressione aritmetica
restituisce un'espressione delle somme di Riemann pari a
Per passare dalle somme integrali di Riemann all'integrale vero e proprio è ora necessario, in conformità con la
definizione di integrale, il passaggio al limite di suddette somme. Ovvero:
Calcolando il limite per
, dato che
, s'ottiene
dalla quale, eseguendo la somma si ricava
la quale è esattamente l'area del trapezio costruito dalla retta
sul piano insieme all'asse delle ascisse.
Note
[1]
[2]
[3]
[4]
[5]
[6]
[7]
[8]
[9]
W. Rudin, op. cit., Pag. 68
Si pone in tale contesto che due funzioni uguali quasi ovunque siano coincidenti.
W. Rudin, op. cit., Pag. 69
Reed, Simon, op. cit., Pag. 10
Reed, Simon, op. cit., Pag. 11
W. Rudin, op. cit., Pag. 8
W. Rudin, op. cit., Pag. 15
W. Rudin, op. cit., Pag. 19
W. Rudin, op. cit., Pag. 34
Bibliografia
• (EN) Walter Rudin, Real and Complex Analysis, Mladinska Knjiga, McGraw-Hill, 1970. ISBN 0070542341
• Michael Reed; Barry Simon, Methods of Modern Mathematical Physics, Vol. 1: Functional Analysis, 2a ed., San
Diego, California, Academic press inc., 1980. ISBN 0125850506
• Gustavo Bessiére Il calcolo differenziale ed integrale, reso facile ed attraente (Editore Ulrico Hoepli Milano)
ISBN 88-203-1011-2
Integrale
Voci correlate
•
•
•
•
•
•
•
•
Derivata
Funzione sommabile
Integrale di Riemann
Integrale di Lebesgue
Integrale sui cammini
Metodi di integrazione
Passaggio al limite sotto segno di integrale
Primitiva (matematica)
Tavole di integrali
• Integrali più comuni
• Integrali definiti
Integrali indefiniti
• di funzioni razionali
•
•
•
•
•
•
•
di funzioni irrazionali
di funzioni trigonometriche
di funzioni iperboliche
di funzioni esponenziali
di funzioni logaritmiche
di funzioni d'arco
di funzioni d'area
Altre tipologie di integrali
• Integrale multiplo
• Integrale doppio
• Integrale triplo
• Integrale di linea
• Integrale di superficie
• Integrale funzionale
Collegamenti esterni
• The Integrator - Calcolo formale di primitive (http://integrals.wolfram.com/index.jsp) (Wolfram Research)
• Interactive Multipurpose Server (http://wims.unice.fr/wims/en_home.html) (WIMS)
• Marshall Evans Munroe, Misura e integrazione (http://www.treccani.it/enciclopedia/
misura-e-integrazione_(Enciclopedia-Novecento)/), da Enciclopedia del Novecento, Istituto dell'Enciclopedia
italiana Treccani
• Integrale (http://www.treccani.it/enciclopedia/integrale/), Enciclopedia on line Treccani
169
Convoluzione
170
Convoluzione
In matematica, in particolare nell'analisi funzionale, la convoluzione è un'operazione tra due funzioni che genera una
terza funzione che viene vista come la versione modificata di una delle due funzioni di partenza. È paragonabile alla
correlazione incrociata.
Viene utilizzata in vari campi della fisica, della statistica, dell'elettronica, dell'analisi d'immagini e della grafica
computerizzata, soprattutto per operazioni di filtraggio nei sistemi lineari tempo invarianti (in questo caso l'OUT è
dato dalla convoluzione tra il segnale IN e la risposta all'impulso del sistema, la cui trasformata di Laplace o la
trasformata di Fourier è detta funzione di trasferimento e funzione di risposta in frequenza rispettivamente).
Definizione Intuitiva
La convoluzione temporale di due funzioni è la somma, ripetuta quanto si voglia nel tempo, cioè in istanti diversi,
dei prodotti: del valore della funzione qualsiasi nel momento qualsiasi, per il valore di una seconda funzione
qualsiasi in un momento precedente o successivo al momento qualsiasi, per la misura dell'intervallo temporale che
passa dal momento qualsiasi al momento precedente o successivo al momento qualsiasi.
Definizione
Si considerino due funzioni
secondo Lebesgue su ogni compatto di
, dove
è a supporto compatto e
. Si definisce convoluzione di
e
è integrabile
la funzione definita nel seguente
[1]
modo:
dove
denota l'integrale definito su tutto l'insieme dei numeri reali, risultano ora chiare le limitazioni poste alle
funzioni e , in quanto se così non fosse non potremmo assicurare che l'integrale sia un numero reale.
È cioè l'integrale del prodotto delle due funzioni dopo che una delle funzioni di partenza è stata rovesciata e traslata,
e si può considerare una forma di trasformata integrale.
L'ultimo passaggio si può dimostrare con semplici calcoli: si consideri
nella prima formula si ottiene la seconda ritornando a chiamare con il nome di
Per funzioni discrete, si può usare la versione discreta della convoluzione:
Proprietà
La convoluzione soddisfa le seguenti proprietà:
• Commutatività
• Associatività
• Distributività
• Associatività per moltiplicazione per scalare
, operando la sostituzione
.
Convoluzione
171
per ogni numero reale (o complesso)
.
• Regola di differenziazione
dove con
si è denotata la derivata di
o, nel caso discreto, l'operatore differenziale
.
Teorema di convoluzione
Il teorema di convoluzione afferma che
dove F(f) indica la trasformata di Fourier di f. Altre versioni di questo teorema funzionano per la trasformata di
Laplace, trasformata di Laplace bilatera e la trasformata di Mellin.
La trasformata della convoluzione di due funzioni equivale al prodotto delle trasformate delle due funzioni stesse.
Estensione
La convoluzione di f e g si scrive
ed è definita come l'integrale del prodotto delle due funzioni dopo che una
delle due sia stata simmetrizzata rispetto all'asse delle ordinate e sia stata traslata. In questo modo, la convoluzione è
un metodo particolare di trasformata integrale:
L'intervallo di integrazione dipende dal dominio su cui sono definite le funzioni. Nel caso di integrazione su un
intervallo finito, f e g sono spesso considerate periodiche in entrambe le direzioni, in modo tale che il termine g(t −
τ) non implichi una violazione dell'intervallo. L'uso dei domini periodici è spesso chiamato convoluzione circolare;
naturalmente, è sempre possibile l'estensione con aggiunta di zeri: utilizzando l'estensione con gli zeri o domini
infiniti, la convoluzione è detta lineare, specialmente nel caso discreto sotto descritto.
Se
e
sono due variabili casuali indipendenti con densità di probabilità f e g rispettivamente, allora la densità
di probabilità della somma
è data dalla covoluzione f
g[2].
Per le funzioni discrete, si può utilizzare la versione discreta della convoluzione, data da
Moltiplicando due polinomi, i coefficienti del prodotto sono dati dalla convoluzione della sequenza originale dei
coefficienti in questo senso (utilizzando l'estensione con zeri come ricordato sopra).
Generalizzando i casi sopra citati, la convoluzione può essere definita per ogni coppia di funzioni integrabili definite
su un intervallo localmente compatto.
Una generalizzazione diversa avviene per la convoluzione delle distribuzioni.
Convoluzione
Convoluzione su gruppi
Se G è un gruppo scelto in modo appropriato e la cui misura corrisponde al valore m (per esempio, uno gruppo di
Hausdorff localmente compatto con la misura di Haar e se f e g sono valori reali o complessi dell' m-integrale di G,
allora la loro convoluzione può essere definita da:
Applicazioni
La convoluzione e le relative operazioni sono usate in diverse applicazioni dell'ingegneria e della matematica.
• In statistica, una media mobile pesata è una convoluzione.
• Anche la distribuzione di probabilità della somma di due variabili casuali indipendenti corrisponde alla
convoluzione di ognuna delle loro distribuzioni.
• In ottica, molte specie di "blur" sono descritte tramite la convoluzione. Un'ombra (ad esempio l'ombra su un
tavolo che si vede quando gli si interpone un oggetto innanzi la fonte luminosa) è la convoluzione della forma
della fonte di luce che sta proiettando l'ombra dell'oggetto illuminato e l'oggetto stesso. Una foto fuori fuoco è la
convoluzione dell'immagine a fuoco con la forma del diaframma. Il termine fotografico per tale effetto è bokeh.
• Analogamente, nell'elaborazione digitale delle immagini, i filtri convoluzionali assumono un importante compito
negli algoritmi di calcolo dei margini e dei processi correlati.
• Nell'elaborazione digitale dei segnali, il filtraggio di frequenza può essere semplificato convolvendo due funzioni
(dati con un filtro) nel dominio del tempo, il che equivale a moltiplicare i dati con un filtro nel dominio di
frequenza.
• In acustica lineare, un'eco è la convoluzione del suono originale con una funzione geometrica che descrive i vari
oggetti che stanno riflettendo il segnale sonoro.
• Nella riverberazione artificiale (elaborazione digitale dei segnali (DSP), audio professionale), la convoluzione è
utilizzata per codificare la risposta ad impulso di una stanza reale ad un segnale audio digitale.
• In ingegneria elettrica e in altre discipline, l'output (risposta) di un sistema lineare (stazionario, o tempo- o
spazio-invariante) è la convoluzione di un input (eccitazione d'ingresso) con la risposta impulsiva del sistema
(ovvero la risposta quando l'eccitazione d'ingresso è la funzione Delta di Dirac). Vedi teoria dei sistemi lineari
tempo-invarianti e elaborazione digitale dei segnali.
• Nella spettroscopia a fluorescenza determinata a tempo, il segnale di eccitazione può essere trattato come una
catena di impulsi delta, e la fluorescenza misurata è data dalla somma dei decadimenti esponenziali di ogni
impulso delta.
• In fisica, ogni volta che è presente un sistema lineare con un "principio di sovrapposizione", è utilizzata
l'operazione di convoluzione.
• Questo è il termine fondamentale del problema nelle equazioni di Navier-Stokes correlate al problema
matematico del millennio di Clay e al premio associato di un milione di dollari.
172
Convoluzione
Note
[1] W. Rudin, op. cit., Pag. 170
[2] J. Jacod;P. Protter, op. cit., Pag. 117
Bibliografia
• Walter Rudin, Real and Complex Analysis, Mladinska Knjiga, McGraw-Hill, 1970. ISBN 0070542341
• (EN) Jean Jacod; Philip Protter, Probability Essentials, Springer, 2000. ISBN 3540438718
Collegamenti esterni
• Convolution (http://rkb.home.cern.ch/rkb/AN16pp/node38.html#SECTION000380000000000000000), su
The Data Analysis BriefBook (http://rkb.home.cern.ch/rkb/titleA.html)
• http://www.jhu.edu/~signals/convolve/index.html Applet Java sulla convoluzione.
• http://www.jhu.edu/~signals/discreteconv2/index.html Applet Java per la convoluzione di funzioni tempo
discrete.
• http://www3.deis.unibo.it/Staff/Research/CCaini/corsoCEA/convoluzione.xls Un foglio elettronico per
visualizzare in modo interattivo il prodotto di convoluzione fra due segnali, nell’esempio un impulso ed
un’esponenziale monolatera. Tramite un cursore il tempo può essere fatto variare da -∞ a +∞; in corrispondenza di
ogni valore viene evidenziata la funzione integrando ed il risultato del prodotto di convoluzione (tramite un
marker)
Voci correlate
• Deconvoluzione
• Convoluzione di Dirichlet
• Mollificatore
Altri progetti
•
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/
Category:Convolution
173
Sigma-algebra
174
Sigma-algebra
In matematica, una σ-algebra (pronunciata sigma-algebra) o tribù (termine introdotto dal francese Bourbaki) su di
un insieme , è una famiglia di sottoinsiemi di che ha delle proprietà di stabilità rispetto ad alcune operazioni
insiemistiche, in particolare l'operazione di unione numerabile e di passaggio al complementare. La struttura di
σ-algebra è particolarmente utile nelle teorie della misura e probabilità ed è alla base di tutte le nozioni di
misurabilità, sia di insiemi che di funzioni. Essa è un caso particolare di algebra di insiemi e, rispetto a quest'ultima,
è utilizzata molto più ampiamente in Analisi (per via delle numerose proprietà che le misure definite su σ-algebre
hanno rispetto alle operazioni di passaggio al limite).
Le σ-algebre che ricorrono più spesso in matematica sono le σ-algebre boreliane e la σ-algebra di Lebesgue. Anche
storicamente queste due classi di σ-algebre hanno motivato lo sviluppo del concetto stesso di σ-algebra, nato a
cavallo di XIX secolo e XX secolo col fine di formalizzare la teoria della misura[1]. Esso, infatti, precisa l'idea
euristica di evento o insieme misurabile. Molte importanti strutture astratte, al centro dei progressi della matematica
dell'ultimo secolo, sono definibili mediante σ-algebre [2].
Definizione e prime proprietà
Dato un insieme
, si definisce σ-algebra su
una famiglia
• L'insieme appartiene a .
• Se un insieme
è in , allora il suo complementare è in
• Se gli elementi
appartiene a
Se
tale che:[3]
di sottoinsiemi di
.
di una famiglia numerabile di insiemi
sono in
, allora la loro unione:
.
è una σ-algebra su
, allora
si dice spazio misurabile e gli elementi di
sono detti insiemi misurabili in
[3]
.
Una σ-algebra, in particolare, è un'algebra di insiemi, poiché la terza condizione sopraindicata implica la stabilità per
unione finita richiesta nella definizione di struttura di algebra. In tal caso si richiede la stabilità anche per unioni
numerabili, da cui l'identificativo σ, un'abbreviazione per successione.
Dalla definizione segue che:[4]
• L'insieme vuoto appartiene a , essendo il complementare di .
• Una σ-algebra è stabile per intersezione numerabile. Infatti, se
• Se gli insiemi
Date due σ-algebre
e
appartengono a
,
, si dice che
appartenente ad
è meno fine di
appartiene anche a
e
, dove
e
costituita da sottoinsiemi del prodotto cartesiano
.
se
è contenuta in
,
. La relazione essere meno fine di
definisce un ordinamento parziale sull'insieme delle σ-algebre su di un dato insieme
Dati due insiemi
, allora:
, allora:
su di uno stesso insieme
ovvero se ogni sottoinsieme
per ogni
.
sono le rispettive sigma-algebre, la sigma-algebra
è
, ed è la più piccola sigma-algebra che contiene
Sigma-algebra
175
Strutture definite utilizzando σ-algebre
La nozione di σ-algebra fornisce la possibilità di costruire strutture matematiche più complesse a partire da essa. Le
seguenti strutture fondamentali, largamente studiate durante il XX secolo, stanno alla base della teoria della misura e
dell'integrale di Lebesgue.
Spazio misurabile
Uno spazio misurabile è una coppia
elementi di
costituita da un insieme non vuoto
[3]
sono detti insiemi misurabili di
le funzioni misurabili. L'insieme
.
ed una σ-algebra
su
. Gli
Gli spazi misurabili formano una categoria, i cui morfismi sono
è chiamato a volte spazio campionario, soprattutto nelle applicazioni inerenti alla
statistica e la probabilità.
Spazio di misura
Si definisce spazio di misura uno spazio misurabile
costituita da sottoinsiemi misurabili di
Se
.
[5]
dotato di una misura
Un tale spazio si rappresenta con una terna
lo spazio di misura si dice finito. Se inoltre
di misura finita, cioè tali che
positiva definita sulla σ-algebra
.
può scriversi come unione numerabile di insiemi:
, allora lo spazio misurabile si dice σ-finito.
Funzioni misurabili
Sia
uno spazio misurabile e
misurabile o
uno spazio topologico. Un'applicazione
-misurabile se la controimmagine di ogni elemento di
insieme misurabile di
per ogni aperto V di
:
è in
viene detta
, ossia se
è un
[3]
Utilizzando il linguaggio della teoria delle categorie si può definire una funzione misurabile come un morfismo di
spazi misurabili.
Sistema dinamico
Sia
uno spazio misurabile,
un semigruppo e, per ogni
misurabile con la proprietà che
. In altri termini,
, sia
un'applicazione
è un'azione misurabile di
su
. La terna
è detta sistema dinamico.
Principali risultati
Data una famiglia
qualunque di σ-algebre, si verifica che la loro intersezione:
è ancora una σ-algebra. Essa è la più grande σ-algebra contenuta in tutte le algebre
, allora
, ossia se
per ogni
.
Pertanto, data una famiglia qualsiasi
di sottoinsiemi di
l'intersezione di tutte le σ-algebre contenenti
, si può considerare la σ-algebra generata da
come
. Dunque, dalla definizione stessa di σ-algebra generata da
segue
che essa è la più piccola σ-algebra contenente
. Questa osservazione è molto utilizzata per la costruzione di
misure, in quanto consente di definire una σ-algebra semplicemente fornendo una famiglia di insiemi che la
generano. La σ-algebra generata da un insieme è spesso denotata
.
Nel caso di famiglie finite
, tale σ-algebra si può enumerare esplicitamente ponendo:
Sigma-algebra
176
e chiudendo la famiglia rispetto alle operazioni di unione e complementare.
Un π-sistema
è una famiglia non vuota di sottoinsiemi di
. Analogamente, una famiglia
stabile per intersezione: se
di sottoinsiemi di
•
•
.
è chiusa per passaggio al complementare, ovvero se
•
è stabile per unioni numerabili disgiunte: se gli insiemi
allora
è detta un λ-sistema se:
allora
per
.
sono a due a due disgiunti,
allora:
.
In tale contesto, è possibile dimostrare in maniera elementare il teorema π-λ di Dynkin, che afferma che su un
qualunque insieme non vuoto, se un π-sistema
è contenuto in un λ-sistema
, allora l'intera σ-algebra
generata da
è contenuta in
. Ossia
.
Tale teorema è molto spesso utilizzato in teoria della misura [6]. Ad esempio, ne segue che è sufficiente assegnare i
valori di una misura
su di un λ-sistema contenente un π-sistema
per costruire lo spazio di misura
. Infatti, proprio per il teorema π-λ di Dynkin, la misura
è ben definita su tutto
.
Esempi ed applicazioni
• Dato un qualunque insieme non vuoto
famiglia
, la famiglia di sottoinsiemi
costituita da tutti i sottoinsiemi di
è una σ-algebra. Anche la
(insieme delle parti) è una σ-algebra. Queste sono
rispettivamente la più piccola e la più grande σ-algebra su
; ossia se
è una σ-algebra su
, allora
. In genere, queste due σ-algebre sono dette improprie o banali.
• Ogni algebra di insiemi composta da un numero finito di elementi è una σ-algebra, in quanto non ci sono famiglie
di insiemi con un numero infinito di elementi (si vedano gli esempi alla voce algebra di insiemi).
• Dato un qualunque insieme non vuoto
, la famiglia composta da tutti i sottoinsiemi di
che hanno cardinalità
numerabile o il cui complementare abbia cardinalità numerabile è una σ-algebra. Essa è distinta dall'insieme delle
parti di se e solo se è non numerabile.
• Consideriamo l'insieme dei numeri reali (o, più in generale,
la famiglia dei sottoinsiemi aperti di
genere denotata con
) con la usuale topologia euclidea
(ossia
). Si definisce σ-algebra boreliana la σ-algebra generata da
. Gli elementi di
è
, in
sono detti boreliani, e si può dimostrare che essi hanno la
cardinalità del continuo (dunque, i sottoinsiemi boreliani sono pochi rispetto a tutti i sottoinsiemi della retta reale
che hanno un cardinalità superiore a quella dei reali stessi). Sulla σ-algebra boreliana si possono definire molte
delle misure (sull'asse reale) comunemente utilizzate. È anche interessante notare che la nozione di σ-algebra è
nata storicamente proprio dalla generalizzazione di questa costruzione.
• Più in generale, la costruzione di σ-algebra boreliana si può effettuare su qualunque spazio topologico
semplicemente ponendo
. Questa σ-algebra è utilizzata per costruire misure in spazi più generali
della retta reale. Ad esempio, la misura di Haar su gruppi topologici localmente compatti è definita proprio
mediante la σ-algebra boreliana del gruppo. Analogamente, la nozione di dualità tra funzioni continue e misure su
di uno spazio topologico si costruisce (in spazi sufficientemente regolari) proprio equipaggiando lo spazio con la
sua σ-algebra boreliana.
• Nel caso in cui
, è talvolta utilizzata una σ-algebra molto più ampia di quella boreliana: la σ-algebra di
Lebesgue. Essa è definita come il completamento della σ-algebra boreliana rispetto alla misura di Borel, ed è
fondamentale per la costruzione della celebre misura di Lebesgue. La σ-algebra di Lebesgue ha cardinalità
Sigma-algebra
superiore a quella del continuo: naturalmente essa è contenuta nell'insieme delle parti dei numeri reali (si veda il
primo esempio sopra). È tuttavia lecito chiedersi se vi siano sottoinsiemi dei numeri reali che non appartangono
alla σ-algebra di Lebesgue (tali sottoinsiemi sono anche detti insiemi non misurabili secondo Lebesgue). Ebbene,
l'esistenza di tali sottoinsiemi è legata all'assioma della scelta, ovvero essi si possono costruire se e solo se si
assume tale assioma.
Note
[1] Un breve resoconto dello sviluppo storico della teoria della misura e dell'integrazione si trova in Boyer History of Mathematics, cap. 28.
[2] Per un'introduzione alle idee della teoria della misura (come appunto quella di σ-algebra), ed alle loro applicazioni si veda Billingsley
Probability and measure. Una presentazione generale, ma più astratta, è data anche in Cohn, Measure Theory. Un classico testo introduttivo è
Halmos Measure Theory.
[3] W. Rudin, op. cit., Pag. 8
[4] W. Rudin, op. cit., Pag. 10
[5] W. Rudin, op. cit., Pag. 16
[6] Alcune esempi sono dati in Vestrup, The Theory of Measures and Integration cap. 3 e cap. 11
Bibliografia
• Walter Rudin, Real and Complex Analysis, Mladinska Knjiga, McGraw-Hill, 1970. ISBN 0070542341
• Patrick Billingsley, Probability and measure, 3rd edition, New York, John Wiley & Sons, 1995. ISBN
0-471-00710-2.
• Carl B. Boyer, History of Mathematics, 2nd edition, New York, John Wiley & Sons, 1989. ISBN 0-471-54397-7
• Donald L. Cohn, Measure Theory, Boston, Birkhäuser, 1980. ISBN 0-8493-7157-0
• Paul R. Halmos, Measure Theory, New York, Springer-Verlag, 1974. ISBN 0-387-90088-8
• Eric M. Verstrup, The Theory of Measures and Integration, Hoboken, John Wiley & Sons, 2003. ISBN
0-471-24977-7
Voci correlate
•
•
•
•
•
•
•
•
•
•
Algebra di insiemi
Algebra di Borel
Algebra di Baire
Delta algebra
Funzione misurabile
Insieme misurabile
Spazio di probabilità
Spazio misurabile
Spazio di misura
Spazio campionario
177
Algoritmo di Metropolis-Hastings
178
Algoritmo di Metropolis-Hastings
L'algoritmo di Metropolis-Hastings serve a generare dei numeri x1, x2, .., xn che presentano una distribuzione p(x)
fissata a priori.
Il metodo si basa sulla generazione di numeri di 'test' che vengono accettati o rigettati in modo da ottenere la
distribuzione voluta. Il metodo sarà presentato nel caso di una sola variabile casuale continua; esso può essere
facilmente esteso al caso di distribuzioni di probabilità P(x1, x2, ..., xN) di un numero qualsiasi di variabili.
L'algoritmo di Metropolis è realizzabile utilizzando un generatore di numeri casuali con distribuzione uniforme in [0,
1]. La procedura è la seguente:
1. Preso, per convenzione, l'ultimo valore xi della variabile random nella sequenza si sceglie un valore di prova x*
diverso da xi tra tutti i valori possibili della variabile random. Nel caso delle variabili random continue si può
prendere x* = xi +δx dove δx è un numero distribuito uniformemente nell'intervallo [−δ, δ];
2. Si calcola il rapporto w =
;
3. Se w ≥ 1 si accetta il nuovo valore x* = xi+1
4. Se invece w < 1 il nuovo valore deve essere accettato con probabilità w. Si genera quindi un numero random r
distribuito uniformemente nell'intervallo [0, 1);
5. Se r ≤ w si accetta il nuovo valore x* = xi+1 ;
6. Se invece r > w il nuovo valore viene rigettato dal momento che xi+1 = xi.
Per generare una sequenza di N elementi basta ripetere queste operazioni N volte a partire da un valore iniziale x0.
Per avere una buona stima della p(x) è necessario generare sequenze molto lunghe. La scelta del valore di δ può
essere cruciale, se è troppo grande solo una piccola parte dei valori di prova proposti verrà accettato. Se invece il
valore di δ è troppo piccolo quasi tutti i valori di prova proposti saranno accettati.
Di conseguenza, essendo δ dipendente dalla forma di p(x), deve essere di volta in volta scelto; per la sua stima si può
procedere per approssimazione successiva in modo che, fissato un delta, il numero di valori accettati sia un terzo del
totale. Anche la scelta del valore iniziale è molto importante, in genere conviene partire da valori di x tali che p(x)
assuma valori massimi in modo da avere una buona statistica nelle zone più probabili.
Voci correlate
• Processo markoviano
• Nicholas Constantine Metropolis
Bibliografia
W.K Hastings, Monte Carlo sampling methods using Markov chains and their applications, Biometrikam, 1970; 57:
97-109
Metodo Monte Carlo
Metodo Monte Carlo
Il Metodo Monte Carlo fa parte della famiglia dei
metodi statistici non parametrici. È utile per superare i
problemi computazionali legati ai test esatti (ad
esempio i metodi basati sulla distribuzione binomiale e
calcolo combinatorio, che per grandi campioni
generano un numero di permutazioni eccessivo).
Il metodo è usato per trarre stime attraverso
simulazioni. Si basa su un algoritmo che genera una
serie di numeri tra loro incorrelati, che seguono la
distribuzione di probabilità che si suppone abbia il
fenomeno da indagare. L'incorrelazione tra i numeri è
assicurata da un test chi quadrato.
La simulazione Monte Carlo calcola una serie di
realizzazioni possibili del fenomeno in esame, con il
peso proprio della probabilità di tale evenienza,
visualizzazione scientifica di una simulazione estremamente grande
cercando di esplorare in modo denso tutto lo spazio dei
di un problema di Instabilità di Rayleigh-Taylor - Lawrence
parametri del fenomeno. Una volta calcolato questo
Livermore National Laboratory
campione casuale, la simulazione esegue delle 'misure'
delle grandezze di interesse su tale campione. La
simulazione Monte Carlo è ben eseguita se il valore medio di queste misure sulle realizzazioni del sistema converge
al valore vero.
Le sue origini risalgono alla metà degli anni 40 nell'ambito del Progetto Manhattan. I formalizzatori del metodo sono
Enrico Fermi, John von Neumann e Stanisław Marcin Ulam[1], il nome Monte Carlo fu inventato in seguito da
Nicholas Constantine Metropolis in riferimento alla nota tradizione nei giochi d'azzardo del mini stato omonimo nel
sud della Francia, l'uso di tecniche basate sulla selezione di numeri casuali è citato già in un lavoro di Lord Kelvin
del 1901 ed in alcuni studi di William Sealy Gosset[1].
L'algoritmo Monte Carlo è un metodo numerico che viene utilizzato per trovare le soluzioni di problemi matematici,
che possono avere molte variabili e che non possono essere risolti facilmente, per esempio il calcolo integrale.
L'efficienza di questo metodo aumenta rispetto agli altri metodi quando la dimensione del problema cresce.
Un primo esempio di utilizzo del metodo Monte Carlo è rappresentato dall'esperimento dell'ago di Buffon e forse il
più famoso utilizzo di tale metodo è quello di Enrico Fermi, quando nel 1930 usò un metodo casuale per problemi di
trasporto neutronico[1].
179
Metodo Monte Carlo
180
Descrizione generale
Un altro esempio particolare dell'utilizzo del Metodo Monte Carlo è
l'impiego del metodo nell'analisi scacchistica. Negli ultimi anni i più
forti programmi scacchistici in commercio, implementano delle
opzioni d'analisi che utilizzano "Monte Carlo analisi". Per valutare una
posizione, si fanno giocare al computer migliaia di partite partendo
dalla posizione da analizzare, facendo eseguire al PC delle mosse
"random" (una scelta casuale tra le mosse più logiche). La media dei
risultati ottenuti in queste partite è un'indicazione plausibile della
mossa migliore. (Fonte: Chessbase [2]).
Non c'è un solo metodo Monte Carlo; il termine descrive invece una
classe di approcci molto utilizzati per una larga categoria di problemi.
Tuttavia, questi approcci tendono a seguire un particolare schema:
1. Definire un dominio di possibili dati in input.
2. Generare input casuali dal dominio con una certa distribuzione di
probabilità determinate.
3. Eseguire un calcolo deterministico utilizzando i dati in ingresso
(input).
4. Aggregare i risultati dei calcoli singoli nel risultato finale.
Integrazione
Il metodo Monte Carlo può essere illustrato come
una Battaglia navale. Prima un giocatore fa alcuni
colpi a caso. Successivamente il giocatore applica
alcuni algoritmi (es. la corazzata è di quattro
punti nella direzione verticale o orizzontale).
Infine, sulla base dei risultati del campionamento
casuale e degli algoritmi il giocatore può
determinare le posizioni probabili delle navi degli
altri giocatori.
I metodi deterministici di integrazione numerica operano considerando
un numero di campioni uniformemente distribuiti. In generale, questo
metodo lavora molto bene per funzioni di una variabile. Tuttavia, per
funzioni di vettori, i metodi deterministici di quadratura possono essere
molto inefficienti. Per integrare numericamente una funzione di un
vettore bidimensionale, sono richieste griglie di punti equispaziati sulla
superficie stessa. Per esempio una griglia di 10x10 richiede 100 punti. Se il vettore è a 100 dimensioni, la stessa
spaziatura sulla griglia dovrebbe richiedere 10100 punti– questo potrebbe essere troppo dispendioso
computazionalmente. Le 100 dimensioni non hanno un significato irragionevole, poiché in molti problemi di fisica,
una "dimensione" è equivalente a un grado di libertà.
I metodi di Monte Carlo forniscono una soluzione a questo problema di crescita esponenziale del tempo. Finché la
funzione in questione ha un buon comportamento, può essere valutata selezionando in modo casuale i punti in uno
spazio 100-dimensionale, e prendendo alcune tipologie di medie dei valori della funzione in questi punti. Per il
teorema del limite centrale, questo metodo mostrerà ordine di convergenza
; per esempio quadruplicando il
numero dei punti equispaziati dimezza l'errore, nonostante il numero delle dimensioni.
Una caratteristica di questo metodo è quella di scegliere i punti in modo casuale, ma vengono scelti con maggior
probabilità i punti che appartengono alle regioni che contribuiscono maggiormente al calcolo dell'integrale rispetto a
quelli che appartengono a regioni di basso contributo. In altre parole, i punti dovrebbero essere scelti secondo una
distribuzione simile in forma alla funzione integranda. Comprensibilmente, fare ciò è difficile tanto quanto risolvere
l'integrale, ma ci sono altri metodi di approssimazione possibili: a partire da quelli che costruiscono una funzione
integrabile simile a quella da integrare, fino ad arrivare ad una delle procedure adattive.
Un simile approccio implica l'uso di low-discrepancy sequences piuttosto del metodo quasi-Monte Carlo. I metodi
Quasi-Monte Carlo spesso possono essere più efficienti come metodi di integrazione numerica poiché la successione
Metodo Monte Carlo
di valori generata riempie meglio l'area e le successive valutazioni possono far convergere più velocemente la
simulazione alla soluzione.
Esempio
Si voglia stimare il rendimento mensile di un titolo azionario. Il titolo esiste da cinque anni, quindi si hanno a
disposizione solo 60 rendimenti mensili. Supponiamo che i rendimenti si distribuiscano seguendo una variabile
casuale normale.
Calcoliamo:
• Media campionaria
• Scarto quadratico medio campionario, su base giornaliera (che poi si adatterà con la formula della radice quadrata
del tempo al periodo mensile.)
Con un modello di regressione lineare cercheremo di stimare la media a un mese. Successivamente, si andranno a
generare attraverso l'algoritmo Monte Carlo una serie di medie "sperimentali" che saranno ricavate da una
distribuzione normale (perché si è ipotizzato che i rendimenti seguano questa distribuzione) con media pari alla
media stimata e scarto quadratico medio pari allo scarto quadratico medio campionario a un mese.
Una strategia per procedere e stimare la vera media del fenomeno, a questo punto, può essere quella di ricavare la
media generale di tutte le medie sperimentali ottenute. I dati ottenuti forniscono stime tanto migliori quanto
maggiore è il numero delle prove fatte.
Il metodo é molto usato in varie discipline. Tra le possibili applicazioni: fisica statistica e ingegneria, dove si presta
molto bene a risolvere problemi legati, ad esempio, alla fluidodinamica; in economia e finanza per prezzare i derivati
e le opzioni non standard; in informatica, per simulare l'illuminazione naturale; in chimica computazionale il Monte
Carlo quantistico è un metodo per la determinazione della struttura elettronica; ecc…
È molto potente se usato in combinazione con altri metodi non parametrici come il resampling.
Discussione analitica
Per un modello stocastico sia θ la quantità da determinarsi. Si esegua una simulazione, generando la variabile
casuale X1 in modo che θ sia il valore atteso di X1. Consideriamo una seconda simulazione, generando una variabile
casuale X2 tale che il suo valore atteso sia sempre θ. Proseguiamo con k simulazioni, generando fino a k variabili
casuali Xk con E[Xk] = θ. Come stimatore di θ possiamo prendere la media aritmetica delle k variabili casuali
generate, cioè
in quanto è ovviamente E[X] = θ. Qual è il valore più appropriato di k? Supponiamo di avere n variabili aleatorie
indipendenti, X1, ..,Xn aventi la stessa distribuzione. Sia σ2 la varianza della variabile Xi e θ il valore atteso (E[Xi] =
θ, Var(Xi) = σ2). La media campionaria X viene definita da
Il suo valore atteso è:
Quindi X è uno stimatore non distorto (cioè con valore atteso uguale a quello del parametro) di θ. La sua varianza,
usando la formula di Bienaymé è:
181
Metodo Monte Carlo
Pertanto X è una variabile aleatoria con media θ e varianza σ2/n; ne segue che X è uno stimatore efficiente quando
σ/√n è piccolo. Fissata una tolleranza per σ2/n ed avendo stimato σ2 si può in tal modo stimare n.
Si può imporre che il valore atteso ottenuto con lo stimatore stia dentro un ben definito intervallo di confidenza. Si
può a tale scopo utilizzare una conseguenza del teorema del limite centrale. Sia X1, X2, …, Xn …, una successione di
variabili casuali indipendenti e distribuite identicamente aventi la media finita μ e la varianza finita σ2. Allora
dove Φ(x) è la funzione di distribuzione di una variabile casuale normale standard,
Quando n>>1 il teorema del limite centrale ci dice che la variabile
è approssimativamente distribuita come una variabile aleatoria normale unitaria, indicata con N(0,1), cioè con media
zero e varianza 1. Sia ora zα, dove 0< α <1, quel numero tale che, per una variabile normale unitaria, si abbia P(Z >
zα ) = α Allora, dal teorema del limite centrale si ha che , asintoticamente per n grande
Che afferma che la probabilità che la media θ sia compresa nell'intervallo
è (1 - α). Perciò, assegnato 1-α e conoscendo σ, si può stimare il minimo valore di n necessario.
Nasce quindi il problema di come stimare la varianza σ2 = E[(X - θ)2]
Definizione. La varianza del campione S2 è definita da
Vale il seguente risultato.
Proposizione. E[S2]= σ2 Infatti si ha:
ne segue
Per una variabile aleatoria si ha:
E quindi
Inoltre
Ne segue
182
Metodo Monte Carlo
183
Supponiamo ora di avere n variabili aleatorie indipendenti X1, X2, …, Xn aventi la stessa funzione di distribuzione F
e di volere stimare il parametro θ(F) (per evidenziare che tale quantità deve essere calcolata rispetto alla funzione di
distribuzione F). Sia g(X1, X2, …, Xn) lo stimatore proposto per θ(F); se questo non corrisponde al valore medio, il
metodo precedentemente esposto per stimare la varianza dello stimatore non si può applicare. Vediamo come si può
stimare l'errore quadratico medio che si commette quando si usa questo stimatore:
Dove il pedice F significa che il valore d'aspettazione viene calcolato rispetto alla funzione di distribuzione F che per
il momento è incognita.
Un metodo per stimare tale quantità è quello del bootstrap, utilizzando la funzione di distribuzione empirica Fe(x)
definita da:
La legge forte dei grandi numeri afferma che per n molto grande, con probabilità 1, Fe(x) tende a F(x). Allora un
valore approssimato di EQM(F) è dato da (approssimazione di bootstrap):
Va rilevato, da un punto di vista operativo, che il dimensionamento della simulazione si supera facilmente grazie alla
crescente disponibilità di potenza di calcolo. In altre parole, procedendo all'uso del metodo su calcolatore, sarà
sufficiente generare una serie di prove di ampiezza sicuramente ridondante per assicurarsi la significatività della
stima.
Esempio: determinare il valore π
Sia M un punto di coordinate (x,y) con 0<x<1 e 0<y<1.
Scegliamo casualmente i valori di x e y.
Sia
allora il punto M appartiene al disco di centro
(0,0) di raggio 1.
La formula per determinare l'area di un disco è il raggio elevato al
quadrato per π. Nell'esempio il raggio è pari a uno e quindi l'area
di interesse è 1*π = π. Il punto può cadere solo in uno dei quattro
quadranti del disco e quindi la probabilità che cada all'interno del
disco è π/4.
Facendo il rapporto del numero dei punti che cadono nel disco con
il numero dei tiri effettuati si ottiene un'approssimazione del
numero π/4 se il numero dei tiri è grande.
Eseguendo numericamente l'esempio si ottiene un andamento
percentuale dell'errore mostrato nel grafico sottostante.
Metodo Monte Carlo
Andamento % dell'errore tra il pi-greco teorico e il pi-greco calcolato. Il programma ha eseguito 1370 milioni di lanci. Si noti che all'inizio l'errore è
molto elevato ma rapidamente tende a decrescere. Essendo un metodo statistico ci possono essere dei temporanei innalzamenti dell'errore ma la
tendenza è la sua diminuzione all'aumento dei lanci.
Esempio: determinare la superficie di un lago
Questo è un esempio classico della divulgazione del metodo Monte-Carlo. Sia data una zona rettangolare o quadrata
di cui la lunghezza dei lati è conosciuta. Al centro di quest'area si trova un lago la cui superficie è sconosciuta.
Grazie alle misure dei lati della zona, si conosce l'area del rettangolo. Per determinare l'area del lago, si chiede ad
una truppa armata di tirare X colpi di cannone in modo aleatorio su questa zona. Contiamo in seguito il numero N di
palle che sono restate sulla terra, possiamo quindi determinare il numero di palle che sono cadute dentro il lago:
X-N. È sufficiente quindi stabilire un rapporto tra i valori:
Per esempio, se il terreno ha superficie di 1000 m2, e supponiamo che l'armata tiri 500 palle e che 100 proiettili sono
caduti dentro il lago allora la superficie del lago è di: 100*1000/500 = 200 m2.
Naturalmente, la qualità della stima migliora aumentando il numero dei tiri ed assicurandosi che l'artiglieria non miri
sempre lo stesso posto ma copra bene la zona. Questa ultima ipotesi coincide con l'ipotesi di avere un buon
184
Metodo Monte Carlo
generatore di numeri aleatori, questa condizione è indispensabile per avere dei buoni risultati con il metodo Monte
Carlo. Un generatore distorto è come un cannone che tira sempre nello stesso punto: le informazioni che genera sono
ridotte.
Note
[1] Carlo Jacoboni e Paolo Lugli, The Monte Carlo Method for Semiconductor Device Simulation - Springer-Verlag
[2] http:/ / www. chessbase. com/ newsdetail. asp?newsid=5075
Bibliografia
• W.K Hastings, Monte Carlo sampling methods using Markov chains and their applications, Biometrikam, 1970;
57: 97-109
• Bernd A. Berg, Markov Chain Monte Carlo Simulations and Their Statistical Analysis (With Web-Based Fortran
Code), World Scientific 2004, ISBN 981-238-935-0.
• P. Kevin MacKeown, Stochastic Simulation in Physics, 1997, ISBN 981-3083-26-3
• Harvey Gould & Jan Tobochnik, An Introduction to Computer Simulation Methods, Part 2, Applications to
Physical Systems, 1988, ISBN 0-201-16504-X
• C.P. Robert and G. Casella. "Monte Carlo Statistical Methods" (second edition). New York: Springer-Verlag,
2004, ISBN 0-387-21239-6
• Makers of commercial packages which implement Monte Carlo algorithms in include Palisade Corporation
(@Risk) (http://www.palisade.com), Decisioneering (Crystal Ball) (http://www.decisioneering.com) and
Vanguard Software (DecisionPro) (http://www.vanguardsw.com/decisionpro/
monte-carlo-simulation-software.htm)
• Mosegaard, Klaus., and Tarantola, Albert, 1995. Monte Carlo sampling of solutions to inverse problems. J.
Geophys. Res., 100, B7, 12431-12447.
• Tarantola, Albert, Inverse Problem Theory ( free PDF version (http://www.ipgp.jussieu.fr/~tarantola/Files/
Professional/SIAM/index.html)), Society for Industrial and Applied Mathematics, 2005. ISBN 0-89871-572-5
• Morin, L. Richard, Monte Carlo Simulation in the Radiological Sciences, CRC Press, ISBN 0-8493-5559-1.
Voci correlate
• FLUKA
• Metodo Monte Carlo Dinamico
• Tissue simulation toolkit
Altri progetti
•
Wikibooks contiene testi o manuali: http://it.wikibooks.org/wiki/Implementazioni_di_algoritmi/
Metodo_Monte_Carlo
•
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/
Category:Monte-Carlo method
185
Metodo Monte Carlo
Collegamenti esterni
•
•
•
•
•
•
•
•
http://epicws.epm.ornl.gov/rsic.html ORNL Radiation Safety Information Computational Center (RSICC)
http://www.nea.fr/html/dbprog/NEA Data Bank Computer Program Services
Monte Carlo techniques applied in physics (http://www.princeton.edu/~achremos/Applet1-page.htm)
http://homepages.nyu.edu/~sl1544/articles.html Simon Leger, Article on Monte Carlo techniques applied to
finance
Pricing using Monte Carlo simulation (http://knol.google.com/k/giancarlo-vercellino/
pricing-using-monte-carlo-simulation/11d5i2rgd9gn5/3#), a practical example, by Giancarlo Vercellino
http://homepages.nyu.edu/~sl1544/MonteCarloNuls.pdf Simon Leger, Introduction aux techniques de Monte
Carlo appliquees a la finance et introduction aux techniques plus avancees.
http://www.fluka.org/A particle physics MonteCarlo simulation package
Chessbase (http://www.chessbase.com/newsdetail.asp?newsid=5075) tutorial analisi scacchistica con il
Metodo Montecarlo
Software Statistici
• MCMCpack Package R (http://cran.r-project.org/web/packages/MCMCpack/index.html)
186
187
Defaticamento
Statistica
La statistica è una disciplina che ha come fine lo studio quantitativo e qualitativo di un particolare fenomeno in
condizioni di non determinismo o incertezza ovvero di non completa conoscenza di esso o parte di esso. Studia i
modi (descritti attraverso formule matematiche) in cui una realtà fenomenica - limitatamente ai fenomeni collettivi può essere sintetizzata e quindi compresa. La statistica studia come raccogliere i dati e come analizzarli per ottenere
l'informazione che permetta di rispondere alle domande che ci poniamo. Si tratta di avanzare nella conoscenza
partendo dall'osservazione e dall'analisi della realtà in modo intelligente e obiettivo. È l’essenza del metodo
scientifico.[1]
La statistica, per molti etimologicamente legata a status (inteso come stato politico, così come stato delle cose: status
rerum) fu definita e proposta dal filosofo tedesco Achenwall nel XVIII secolo come scienza deputata a raccogliere
dati utili per governare meglio. Oggi la statistica è utile ovunque sia necessaria una delle seguenti condizioni:
• procedere ad una raccolta ordinata, ad una stesura comprensibile e ad una elaborazione dei dati più svariati;
• scoprire eventuali leggi che regolano i dati spesso solo in apparenza disordinati ed operarne il confronto;
• definire una variabile di riferimento che assuma diversi valori definibili in un certo intervallo di variazione.
Con il termine statistica, nel linguaggio di tutti i giorni, si indicano anche semplicemente i risultati numerici (le
statistiche richiamate nei telegiornali, ad esempio: l'inflazione, il PIL etc.) di un processo di sintesi dei dati osservati.
La statistica è in qualche modo legata alla teoria della probabilità rientrando entrambe nel più vasto ambito della
teoria dei fenomeni aleatori, ma mentre la teoria della probabilità si occupa di fornire modelli teorici probabilistici
ovvero distribuzioni di probabilità adattabili ai vari fenomeni aleatori reali definendo i parametri della variabile
aleatoria in questione, la statistica parte da un campione aleatorio per descrivere le sue proprietà statistiche oppure
risalire o inferire al modello probabilistico sotteso e alla stima dei suoi parametri (media, varianza, deviazione
standard, moda, mediana).
Importanza e applicazioni
Il metodo e le tecniche statistiche, tipicamente teoriche, assumono importanza fondamentale in molti altri ambiti
applicativi di studio quale ad esempio la fisica (fisica statistica) qualora per manifesta complessità di analisi si debba
rinunciare ad avere informazioni di tipo deterministico su sistemi fisici complessi o a molti gradi di libertà
accettandone invece una sua descrizione statistica. Tra queste discipline ci sono anche l'economia, che si appoggia
fortemente alla statistica (statistica economica, statistica aziendale ed econometria, oltre alla teoria dei giochi e delle
decisioni) nella descrizione qualitativa (serie storiche) e quantitativa (modelli statistici) dei fenomeni
socio-economici che incorrono all'interno del sistema economico; e alla psicologia, che si appoggia alla statistica
nella ricerca delle caratteristiche e degli atteggiamenti degli individui e le loro differenze (psicometria). La statistica
è uno strumento essenziale nella ricerca medica. La biostatistica fornisce infatti gli strumenti per tradurre l’esperienza
clinica e di laboratorio in espressioni quantitative, tese a individuare se, e in che misura, un trattamento o una
procedura abbia avuto effetto su un gruppo di pazienti.[2] Un'altra applicazione estremamente comune nella società è
quella dei sondaggi, analisi di mercato e in generale qualunque analisi di dati campionari.
Statistica
Cenni storici
La misura quantitativa dei fenomeni sociali ha una storia antica.[3] In Egitto si rilevava l'ammontare della
popolazione già ai tempi della prima dinastia e durante la seconda si rilevavano vari beni a fini fiscali. Durante le
dinastie successive si tenevano elenchi delle famiglie dei soldati, dei dipendenti statali, delle merci. Sotto la
ventesima dinastia si tenevano liste delle abitazioni e dei loro abitanti.
In Israele il primo censimento fu fatto ai tempi del soggiorno nel Sinai (da cui il libro dei Numeri della Bibbia) e altri
ne seguirono. Anche l'immenso impero cinese ha sempre curato i censimenti, che nell'epoca dei Ming avevano
cadenza decennale. Non si hanno invece notizie di censimenti nella Grecia antica, ma venivano registrati ogni anno i
nati dell'anno precedente.
La rilevazione dei cittadini e dei loro beni ebbe grande importanza nella Roma antica. Il primo censimento fu
ordinato da Servio Tullio e si ebbero poi censimenti con periodicità quinquennale dalla fine del VI secolo a.C.,
decennale a partire da Augusto.
La caduta dell'impero romano comportò la sospensione di tali attività per secoli, fino alla ricostituzione di organismi
statali da parte dei Carolingi. Il sorgere dei Comuni, poi delle signorie, delle repubbliche marinare e degli Stati
nazionali comportò una progressiva frammentazione non solo politica, ma anche amministrativa. Già dal XII secolo
si ebbero rilevazioni statistiche in Italia, da Venezia alla Sicilia, con obiettivi prevalentemente fiscali. Ebbero poi
crescente importanza le registrazioni su nascite, matrimoni e morti effettuate dalle parrocchie, iniziate in Italia ed in
Francia fin dal XIV secolo.
L'esigenza di quantificare i fenomeni oggetto di studio, ossia di analizzarli e descriverli in termini matematici, fu una
tendenza tipica del XVII secolo: non fu solo l'Universo ad essere concepito come un grande libro "scritto in caratteri
matematici" - come aveva affermato Galileo Galilei -, ma si diffuse anche la convinzione che fosse possibile studiare
la società tramite strumenti di tipo quantitativo.
In genere, le origini della statistica nella concezione più moderna, si fanno risalire a quella che un economista e
matematico inglese, William Petty (1623 - 1687), chiamò "aritmetica politica", ovvero "l'arte di ragionare mediante
le cifre sulle cose che riguardano il governo"; tra le cose che maggiormente stavano a cuore al governo, del resto, vi
erano l'entità della popolazione e la quantità di ricchezza che essa aveva a sua disposizione, dalle quali dipendeva in
ultima analisi la forza degli Stati in competizione tra loro. Demografia e calcolo del reddito nazionale furono quindi
gli ambiti in cui si esercitò la creatività dei primi "aritmeti politici".
Nel primo campo un autentico precursore fu John Graunt (1620 - 1674), un mercante londinese, che tramite lo studio
dei registri di mortalità, riuscì per primo a rilevare l'approssimativa costanza di certi rapporti demografici e a
costruire una prima e rudimentale "tavola della mortalità". Le sue Natural and Political Observations on the Bills of
Mortality risalente al 1662 possono essere considerate a buon diritto come l'opera fondatrice della demografia. Il
metodo statistico elaborato da Graunt per il settore demografico fu poi ripreso da William Petty, che nel suo Fuve
Essays on the Political Arithmetic del 1690 espose i principi fondamentali della nuova disciplina.
Nei medesimi anni, venne data alle stampe l'opera di un altro grande aritmeta politico, Gregory King (1648 - 1712),
il quale nelle sue Natural and Political Observations and Conclusion upon the State and Condition of England
risalente al 1698 formulò una stima della popolazione e del reddito totale dell'Inghilterra, giungendo a conclusioni
ritenute abbastanza verosimili. In Francia un tentativo simile venne effettuato dal ministro del re Luigi XIV ed
economista Sebastien de Vauban (1633 - 1707), che stimò la popolazione del Regno di Francia intorno ai venti
milioni di abitanti - valutazione condivisa dagli storici attuali.
Ai problemi statistici si interessarono anche alcune delle menti più brillanti dell'epoca: il fisico olandese Christiaan
Huygens (1629 - 1695) elaborò delle tavole di mortalità, l'astronomo inglese Edmund Halley (1656 - 1742) avanzò
una serie di ipotesi sul numero di abitanti dei vari Paesi europei, mentre in Germania il grande filosofo Gottfried
Leibniz (1646 - 1716) suggerì la creazione di un ufficio statale di statistica.
188
Statistica
Nel frattempo, in concomitanza con lo sviluppo di queste prime ed ancora rudimentali metodologie demografiche, ci
si cominciò a porre questo tipo di problemi anche per quanto concerneva la storia precedente: ciò indusse a guardare
in modo critico e diffidente ai dati forniti da quegli autori del passato che avevano cercato di quantificare il numero
di abitanti di un territorio, le dimensioni di un esercito, i morti per un'epidemia, ecc. Un contributo importante, sotto
questo profilo, venne da uno dei più grandi pensatori del XVIII secolo, lo scozzese David Hume (1711 - 1776) il cui
Of the Populousness of Ancient Nations diede inizio alla demografia storica. In tale testo Hume rilevò come le cifre
tramandateci dagli antichi fossero particolarmente inaffidabili, non solo perché le loro stime non avevano basi solide,
ma anche perché i numeri di ogni tipo contenuti negli antichi manoscritti sono stati soggetti ad un'alterazione molto
maggiore di qualsiasi altra parte del testo, in quanto ogni altro tipo di alterazione modifica il senso e la grammatica
ed è quindi più facilmente individuata dal lettore e dal trascrittore. In Italia venne creato un Ufficio Statistico
Nazionale nel 1861, che poi diventò ISTAT nel 1926.
Statistica descrittiva e inferenziale
La scienza statistica è comunemente suddivisa in due branche principali:
• statistica descrittiva
• statistica inferenziale.
La statistica descrittiva
La statistica descrittiva ha come scopo quello di sintetizzare i dati attraverso i suoi strumenti grafici (diagrammi a
barre, a torta, istogrammi, boxplot) e indici (indicatori statistici, indicatori di posizione come la media, di variazione
come la varianza e la concentrazione, di correlazione, ecc.) che descrivono gli aspetti salienti dei dati osservati,
formando così il contenuto statistico.
La statistica inferenziale
La statistica inferenziale (inferenza vuol dire trarre delle conclusioni logiche a partire dai dati disponibili) ha come
obiettivo, invece, quello di stabilire delle caratteristiche dei dati e dei comportamenti delle misure rilevate (variabili
statistiche) con una possibilità di errore predeterminata. Le inferenze possono riguardare la natura teorica (la legge
probabilistica) del fenomeno che si osserva. La conoscenza di questa natura permetterà poi di fare una previsione (si
pensi, ad esempio, che quando si dice che "l'inflazione il prossimo anno avrà una certa entità" deriva dal fatto che
esiste un modello dell'andamento dell'inflazione derivato da tecniche inferenziali). La statistica inferenziale è
fortemente legata alla teoria della probabilità. Sotto questo punto di vista descrivere in termini probabilistici o
statistici una fenomeno aleatorio nel tempo, caratterizzabile dunque da una variabile aleatoria, vuol dire descriverlo
in termini di densità di distribuzione di probabilità e dei suoi parametri di media o valore atteso e varianza. La
statistica inferenziale si suddivide poi in altri capitoli, di cui i più importanti sono la teoria della stima (stima
puntuale e stima intervallare) e la verifica delle ipotesi.
La statistica esplorativa
Intorno al 1950, a questi due primi capitoli della statistica, se ne affiancò un terzo
• la statistica esplorativa
ad opera di John Wilder Tukey. In questo approccio i dati risultati da un esperimento vengono indagati attraverso
metodi di sintesi (grafica e numerica) al fine di formulare ipotesi riguardo alla legge di probabilità sottesa al
fenomeno studiato (questa è la differenziazione con la statistica inferenziale, in cui è sempre sottesa un'ipotesi
riguardo alla legge di probabilità di cui i dati sono la controparte osservabile). Lo sviluppo naturale poi della
statistica esplorativa è il data-mining (che agisce nel Data warehouse).
La ricerca esplorativa è mirata a:
189
Statistica
1.
2.
3.
4.
5.
sviluppare una più precisa formulazione di un problema definito in via preliminare anche in modo piuttosto vago;
formulare ipotesi sulle possibili variabili che agiscono nel contesto in cui si sviluppa il problema;
stabilire priorità sulle questioni da affrontare e studiare;
identificare e formulare le alternative di scelta possibili;
raccogliere informazioni sul problema, che serviranno poi per condurre una ricerca di tipo conclusivo.
In sostanza gli scopi principali di questo tipo di ricerca consistono nella formulazione di congetture o affermazioni
(ipotesi molto generali e non ancora formalizzate per un trattamento statistico) riguardo, ad esempio, alla relazione
fra due o più variabili.
La formulazione di questo tipo di ipotesi spesso scaturisce dall’impiego di specifiche e prestabilite procedure, quali:
la ricerca di fonti secondarie; indagini presso informatori-chiave (es. esperti); focus group, la compilazione di casi di
studio.
Note
[1] Pere Grima. La certezza assoluta e altre finzioni. I segreti della statistica. RBA Italia (Mondo matematico 13); 2011.
[2] Stanton A. Glantz. Statistica per discipline biomediche. McGraw-Hill; 2007. ISBN 9788838639258.
[3] Le informazioni che seguono sono tratte dal Leti.
L'Associazione nazionale statistici è l'associazione che ha lo scopo della tutela degli statistici e la divulgazione della
cultura statistica.
Bibliografia
• Massimiliano Gallo, L’esame di statistica, UNI Service, Trento, 2009, ISBN 978-88-6178-338-6.
• S. Borra, A. Di Ciaccio. Statistica: metodologie per le scienze economiche e sociali, Milano, McGraw-Hill, 2008,
ISBN 978-88-386-6428-1.
• M. K. Pelosi, T. M. Sandifer, P. Cerchiello, P. Giudici. "Introduzione alla Statistica", Milano, McGraw-Hill,
2008, ISBN 978-88-386-6516-5.
• D. Piccolo. Statistica. Bologna, Il Mulino, 2000.
• G. Leti. Statistica descrittiva. Bologna, Il Mulino, 1983.
• G. Landenna, D. Marasini, P. Ferrari. Teoria della stima. Bologna, Il Mulino, 1997.
• G. Landenna, D. Marasini, P. Ferrari. La verifica di ipotesi statistiche. Bologna, Il Mulino, 1998.
• G. Landenna, D. Marasini, P. Ferrari. Probabilità e variabili casuali. Bologna, Il Mulino, 1997.
• Yuri A. Rozanov (1995): Probability Theory, Random Processes and Mathematical statistics, Kluwer, ISBN
0-7923-3764-6
• Mark J. Schervish (1997): Theory of Statistics, Springer, ISBN 0-387-94546-6
• Jun Shao (1999): Mathematical statistics, Springer, ISBN 0-387-98674-X
• Vijay K. Rohatgi, A. K. Md. Ehsanes Saleh (2002): An introduction to Probability and Statistics, 2nd edition,
J.Wiley, ISBN 0-471-34846-5
• Alberto Rotondi, Paolo Pedroni, Antonio Pievatolo (2005): Probabilità, statistica e Simulazione, Springer, ISBN
88-470-0262-1
• A.M. Mood, F.A. Graybill, D.C. Boes (1991): Introduzione alla statistica, McGraw Hill Italia, ISBN
88-386-0661-7
• Leti G. (1983): Statistica descrittiva, Il Mulino, ISBN 88-15-00278-2
• Rizzi A. (1992): Inferenza Statistica, UTET, ISBN 88-7750-014-X
• Vitali O. (1993): Statistica per le scienze applicate, Cacucci editore, ISBN 600-04-1098-0
• Mondani A. (1991): Corso di statistica descrittiva, LED Edizioni Universitarie, ISBN 978-88-791-600-28
• A. M. Gambotto Manzone, B. Consolini: Nuovo Matematica Generale e Applicata con gli strumenti informatici Modulo 6 - Statistica e calcolo delle probabilità, Tramontana, ISBN 978-88-233-02-889.
190
Statistica
191
Voci correlate
Storia e personaggi
Campionamento statistico
Branche
•
•
•
•
•
•
•
•
•
Storia della statistica
Statistici celebri, tra i quali gli italiani Cantelli, Castelnuovo, de Finetti,
Gini, Perozzo
Istituti
•
•
•
•
EUROSTAT
Istituto Internazionale di Statistica
ISTAT
Sistema Statistico Nazionale
Probabilità
Spazio campionario
Stima
Stimatore
Variabile (statistica)
Valore atteso
Media
Moda
Mediana
Indicatori di dispersione
•
•
•
•
•
•
•
•
•
Analisi della varianza
Correlazione
Ipotesi nulla
•
•
•
•
• Test di verifica d'ipotesi
Legge dei grandi numeri
Legge degli eventi rari
Regressione lineare
Variabile casuale
•
Indicatori di posizione
•
•
•
•
Varianza
Disuguaglianza di
Čebyšëv
Indice di concentrazione
Indice di diversità
Indice di
Laakso-Taagepera
Propagazione degli errori
Econometria
Geostatistica
Statistica multivariata
•
•
•
•
•
Analisi delle componenti
principali
Statistica economica
Statistica medica
Statistica non parametrica
Analisi testuale
Qualità
Altri concetti chiave e sottodiscipline
•
•
•
•
•
Contenuto statistico
Data warehouse
Indicatore statistico
Segreto statistico
Rappresentazioni grafiche in
statistica
Indicatori di forma
•
•
Curtosi
Simmetria
Altri progetti
•
Wikisource contiene opere originali: http://it.wikisource.org/wiki/Categoria:Statistica
• Wikizionario contiene la voce di dizionario: http://it.wiktionary.org/wiki/statistica
•
Wikiversità contiene informazioni: http://it.wikiversity.org/wiki/Materia:Statistica
•
•
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Statistics
Wikiquote contiene citazioni: http://it.wikiquote.org/wiki/Statistica
Collegamenti esterni
•
•
•
•
•
•
•
Eurostat (http://epp.eurostat.ec.europa.eu/portal/page/portal/eurostat/home/)
ISTAT (http://www.istat.it/)
Società Italiana di Statistica - SIS (http://www.sis-statistica.it/)
SIEDS, Società Italiana di Economia Demografia e Statistica (http://www.sieds.it/)
Associazione Nazionale Statistici - ANASTAT (http://www.statistici.org/)
Unione statistica dei comuni italiani (http://www.usci.it/)
Statistiche online (http://stat.altervista.org) - Sito che permette di eseguire online calcoli statistici su una serie
di dati.
• Sardegna Statistiche (http://www.sardegnastatistiche.it) Regione Sardegna
• (EN) (IT) Codice Java per calcoli statistici (http://freejavacodex.altervista.org/Statistics.html) - Codici Java
openSource
Statistica
• Statistica (http://search.dmoz.org/cgi-bin/search?search=Statistica&all=yes&cs=UTF-8&cat=World/
Italiano) su Open Directory Project ( Segnala (http://www.dmoz.org/public/suggest?cat=) su DMoz un collegamento
pertinente all'argomento "Statistica")
Inferenza statistica
L'inferenza statistica è il procedimento per cui si inducono le caratteristiche di una popolazione dall'osservazione di
una parte di essa, detta campione, selezionata solitamente mediante un esperimento casuale (aleatorio). Da un punto
di vista filosofico, si tratta di tecniche matematiche per quantificare il processo di apprendimento tramite l'esperienza.
Si considereranno principalmente campioni casuali semplici di dimensione n > 1, che possono venire interpretati
come n realizzazioni indipendenti di un esperimento di base, nelle medesime condizioni. Dal momento che si
considera un esperimento casuale, si coinvolge il calcolo delle probabilità. Nell'inferenza statistica c'è, in un certo
senso, un rovesciamento di punto di vista rispetto al calcolo delle probabilità. Nell'ambito di quest'ultimo, noto il
processo di generazione dei dati sperimentali (modello probabilistico) siamo in grado di valutare la probabilità dei
diversi possibili risultati di un esperimento. Nella statistica il processo di generazione dei dati sperimentali non è
noto in modo completo (il processo in questione è, in definitiva, l'oggetto di indagine) e le tecniche statistiche si
prefiggono di indurre le caratteristiche di tale processo sulla base dell'osservazione dei dati sperimentali da esso
generati.
Esempio
Data un'urna con composizione nota di 6 palline bianche e 4 palline rosse, utilizzando le regole del calcolo delle
probabilità possiamo dedurre che se estraiamo una pallina a caso dall'urna, la probabilità che essa sia rossa è 0,4. Si
ha invece un problema di inferenza statistica quando abbiamo un'urna di cui non conosciamo la composizione,
estraiamo n palline a caso, ne osserviamo il colore e, a partire da questo, cerchiamo di inferire la composizione
dell'urna.
Due approcci
Nell'ambito dell'inferenza statistica, si distinguono due scuole di pensiero, legate a diverse concezioni, o
interpretazioni, del significato della probabilità:
• Inferenza classica, o frequentista;
• Inferenza bayesiana.
La prima è legata agli storici contributi di R. Fisher, K. Pearson, e rappresenta la posizione maggioritaria. La
seconda, allo stato attuale (2005) ancora minoritaria ma in crescita, è fondata sull'uso del risultato del teorema di
Bayes ai fini dell'inferenza statistica.
Inferenza frequentista e bayesiana a confronto
Sia l'approccio frequentista che l'approccio bayesiano hanno in comune anzitutto gli assiomi della probabilità nonché
tutta la parte statistico-matematica. Anche il teorema di Bayes ha validità per entrambi gli approcci così come il fatto
che in entrambi i casi si parla solitamente di statistica parametrica. Ciò che cambia è il significato da dare al concetto
di probabilità, all'atteggiamento nel confronto dell'idea di una probabilità soggettiva e di conseguenza l'utilizzo e
l'importanza che si dà al teorema di Bayes.
Nell'ambito dell'inferenza statistica queste differenze si manifestano, da un lato, sul come e se utilizzare informazioni
note prima di "vedere" i dati e di come quantificare tali informazioni e, dall'altro, vi sono approcci differenti sul
come interpretare i risultati.
192
Inferenza statistica
Un esempio sul come lo stesso esperimento venga visto dai due approcci può essere il seguente problema scolastico.
In un'urna contenente palline identiche tra di loro salvo per il colore, una ignota percentuale π è di colore nero.
Estraendo 100 volte una pallina che viene subito dopo riposta nell'urna succede ad esempio che per 30 volte la
pallina fosse nera.
In entrambi gli approcci la variabile casuale utilizzata è la variabile casuale binomiale:
Il tipico approccio frequentista basato sull'intervallo di confidenza derivante dalle idee di Neyman porta a stabilire
per il valore ignoto di π un intervallo di confidenza p.es. al 95% compreso tra 0,21 e 0,39. La confidenza al 95% non
sta ad indicare che π è compreso con una probabilità del 95% tra 0,21 e 0,39 (si tratterebbe di una affermazione
tipicamente bayesiana), ma indica che a partire dalle ipotesi, il metodo utilizzato, nel 95% dei casi fa delle
affermazioni corrette, nel senso che il vero valore sarà veramente nell'intervallo calcolato. Questo approccio
sottolinea che il valore ignoto π o è compreso nell'intervallo oppure non lo è, ma non dà valori probabilistici a questo
essere compreso. Una stima puntuale sia dei minimi quadrati che della massima verosimiglianza porterebbe a
stimare il valore di π con la stima p=30/100=0,3.
L'approccio bayesiano invece formalizza anzitutto l'idea che si ha su come potrebbe essere forse, probabilmente il
vero valore π, costruendo una variabile casuale discreta o continua sui possibili valori di π. Nel caso particolare che
ci si voglia mettere in condizione di totale ignoranza, verrebbe considerata una Variabile casuale uniforme discreta o,
vista la numerosità campionaria relativamente elevata (100 estrazioni), una variabile casuale rettangolare
nell'intervallo compreso tra zero e uno. Scegliendo la rettangolare come distribuzione a priori si otterrebbe la
seguente distribuzione a posteriori del parametro π:
Il valore massimo, e dunque il più probabile, è dato anche in questo caso da k/n=30/100=0,3, valore già visto
nell'approccio frequentista, con la differenza che questo è a posteriori il valore più probabile, vista le nostre idee a
priori e i risultati dell'esperimento. Utilizzando la distribuzione a posteriori si può affermare che la probabilità che
l'ignoto parametro π abbia un valore tra 0,216 e 0,393 è pari a 0.95 vale a dire a 95%, mentre i valori compresi
nell'intervallo tra 0,21 e 0.39 hanno la probabilità del 95,3%.
Riassumendo questo esempio: nell'approccio frequentista si fanno affermazioni su quante volte si dice il vero usando
la tecnica usata, mentre nell'approccio bayesiano si attribuisce una probabilità di verità direttamente ad un intervallo.
Questa differenza è a livello pratico spesso ignorata, ma dal punto di vista teorico è sostanziale. Si aggiunga il fatto
che l'approccio bayesiano è in grado di utilizzare informazioni già in possesso, modificando la probabilità a priori e
ottenendo così delle probabilità a posteriori diverse.
Breve storia dell'inferenza statistica
Nella storia della statistica, l'inferenza ha conosciuto due grandi periodi. Il primo cominciò alla fine del '800 e si
sviluppò in maniera decisiva nella prima metà del XX secolo con i lavori di R. Fisher, K. Pearson, Jerzy Neyman,
Egon Pearson e Abraham Wald con le fondamentali idee riguardanti la verosomiglianza, la potenza dei test di
verifica d'ipotesi, gli intervalli di confidenza e altre.
Il secondo grande periodo, tuttora in corso, è stato possibile grazie alla crescente potenza di calcolo dei computer,
disponibili a prezzi sempre più abbordabili. Ciò ha permesso di allontanarsi da ipotesi comode dal punto di vista
matematico ma non sempre adeguate alla realtà mettendo in pratica idee anche antiche come quella bayesiana che
trova applicazioni pratiche solo in presenza della potenza di calcolo dei computer, come pure le tecniche di
ricampionamento dei dati come il metodo Monte Carlo, bootstraping, metodo jackknife ecc. legati a personaggi quali
John von Neumann, Stanisław Marcin Ulam, Bradley Efron, Richard von Mises e altri.
193
Inferenza statistica
Temi legati all'inferenza statistica
I seguenti temi costituiscono una lista, non necessariamente esaustiva, di argomenti ricompresi nell'inferenza
statistica:
• Stima, per punti o per intervalli;
• Test di verifica d'ipotesi;
• Previsione.
Voci correlate
• Inferenza bayesiana
• Winsorizzazione
Collegamenti esterni
• Corso di statistica applicata alla microbiologia [1]
Note
[1] http:/ / www. iperserver. it/ mediawiki/ index. php/ Pagina_Principale
Campionamento statistico
In statistica il campionamento statistico (che si appoggia alla teoria dei campioni o teoria del campionamento), sta
alla base dell'inferenza statistica, la quale si divide in due grandi capitoli: la teoria della stima e la verifica d'ipotesi.
In particolare una rilevazione si dice campionaria quando è utile per fare inferenza ossia per desumere dal campione
stesso un'informazione relativa all'intera popolazione.
Campione e censimento
Le indagini censuarie, al contrario, riguardano l'intera popolazione e pur essendo più affidabili riguardo al parametro
oggetto d'indagine soffrono di:
• Maggiori costi
• Tempi più lunghi
• Minore accuratezza e minori risorse concentrate sul controllo della qualità della rilevazione (quello che si
guadagna in estensione si perde in profondità)
Quindi mentre l'indagine censuaria fornisce il valore vero dei parametri di interesse (proporzioni, percentuali, medie,
totali,...) quella campionaria restituisce una sua stima al quale è associato un certo grado di fiducia (ovvero
un'incertezza) quantificabile quando la formazione del campione risponde a determinati criteri di tipo probabilistico.
Il campionamento si usa quando si vuole conoscere uno o più parametri di una popolazione, senza doverne
analizzare ogni elemento: questo per motivi di costi intesi in termini monetari, di tempo, di qualità o di disagio o
perché analizzare un elemento lo distrugge rendendo inutilizzabile l'informazione ottenuta.
194
Campionamento statistico
Scelta del campione
Modalità di selezione del campione sono:
•
•
•
•
Scelta di comodo (campionamento per quote o convenience sampling).
Scelta ragionata (campionamento ragionato o judgmental sampling).
Scelta casuale (campionamento casuale o random sampling).
Scelta probabilistica (campionamento probabilistico o probabilistic sampling).
Nella pratica quotidiana dei sondaggi di opinione e delle ricerche di mercato vengono usati tutti e quattro gli
approcci.
La scelta di un tipo di campionamento avviene in base alle proprietà degli stimatori di alcuni parametri oppure per
tener conto di problemi di costo, mobilità o altro.
Concetti chiave sono:
•
•
•
•
base di campionamento
popolazione d'analisi e popolazione di rilevazione
Piano di campionamento e disegno di campionamento
Errore di campionamento
Storia
Benché già nel '700 si sia notato il vantaggio nell'esaminare un sottinsieme della popolazione per generalizzare i
risultati alla popolazione complessiva, è solo dalla fine dell'800 che la discussione sulla "scientificità" del
campionamento viene posta in modo esplicito alla comunità statistica.
Già agli inizi del '900 si vanno delineando le caratteristiche che un campione deve avere, ovvero che deve essere
scelto in maniera casuale, e nell'arco di pochi anni compaiono i primi studi che mettono in evidenza che il campione
non deve essere necessariamente un campione semplice ma può essere più complesso, per esempio stratificando.
Importanti autori che hanno fatto la storia della teoria dei campioni sono stati tra gli altri:
• Pierre-Simon de Laplace (che fece uso dei moltiplicatori per stimare il totale di una popolazione);
• Adolphe Quételet (che accetta di generalizzare alla popolazione complessiva il tasso di analfabetismo osservato
tra i delinquenti, ma rifiuta di generalizzare la percentuale di maschi tra i neonati);
• Anders Nicolai Kiaer che nel 1895 avvia la discussione di merito in seno all'Istituto Internazionale di Statistica;
• Ladislaus Bortkiewicz che con un suo intervento introduce seriamente la teoria della probabilità nella discussione
sul campionamento;
• Arthur Bowley che sviluppa il campionamento casuale, la stratificazione, e formula la varianza della stima del
totale nel caso del campionamento semplice e nel caso del campionamento stratificato;
• Aleksandr A. Čuprov, suo padre Aleksandr I. Čuprov, A. G. Kovalevskij e Jerzy Neyman che descrivono il
campionamento stratificato, e, per quanto riguarda A. A. Čuprov e J. Neyman, anche scoprendo in modo
indipendente l'allocazione ottima.
Nel 1925, durante il congresso di Roma, l'Istituto Internazionale di Statistica accetta definitivamente come
scientifico il metodo campionario, distinguendo il campionamento casuale dal campionamento ragionato.
Altri autori importanti nella ricerca teorica ed applicata sul campionamento furono George Gallup e William G.
Cochran.
195
Campionamento statistico
Bibliografia
• S. Brasini, M. Freo, F. Tassinari, G. Tassinari, Statistica aziendale e analisi di mercato, 2002, Manuali, Il Mulino,
Bologna
• M. Barisone, R. Mannheimer, I sondaggi, 1999, Il Mulino, Bologna
• M. Chiaro, I sondaggi telefonici, 1996, CISU, Roma
Box-plot
In statistica il box-plot, detto anche box and whiskers plot
(diagramma a scatola e baffi) o semplicemente boxplot, è una
rappresentazione grafica utilizzata per descrivere la distribuzione di un
campione tramite semplici indici di dispersione e di posizione.
Viene rappresentato (orientato orizzontalmente o verticalmente)
tramite un rettangolo diviso in due parti, da cui escono due segmenti. Il
rettangolo (la "scatola") è delimitato dal primo e dal terzo quartile, q1/4 e q3/4, e diviso al suo interno dalla mediana,
q1/2. I segmenti (i "baffi") sono delimitati dal minimo e dal massimo dei valori.
In questo modo vengono rappresentati graficamente i quattro intervalli ugualmente popolati delimitati dai quartili.
Rappresentazioni alternative
Esistono scelte alternative per rappresentare il box-plot; tutte concordano sui tre quartili per rappresentare il
rettangolo ma differiscono per la lunghezza dei segmenti, solitamente scelti più corti per evitare valori troppo
"estremi", che vengono solitamente rappresentati solo come dei punti.
Comunemente i segmenti possono venire delimitati da particolari quantili, solitamente della forma qα e q1-α, come
q0,1 e q0,9.
Altre alternative, che tuttavia possono portare a tracciare i segmenti all'interno del rettangolo, o a farli terminare oltre
i valori estremi del campione, delimitano i segmenti con:
• la media più o meno la deviazione standard;
• i valori (5q1/4-3q3/4)/2 e (5q3/4-3q1/4)/2, in modo che entrambi i segmenti siano lunghi 3/2 volte la lunghezza del
rettangolo.
Voci correlate
• Mediana
• Quartile
• Scarto interquartile
Altri progetti
•
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Box plots
196
Istogramma
197
Istogramma
L'istogramma è la rappresentazione grafica
di una distribuzione in classi di un carattere
continuo.
È costituito da rettangoli adiacenti le cui
basi sono allineate su un asse orientato e
dotato di unità di misura (l'asse ha l'unità di
misura del carattere e può tranquillamente
essere inteso come l'asse delle ascisse).
L'adiacenza dei rettangoli dà conto della
continuità del carattere. Ogni rettangolo ha
base di lunghezza pari all'ampiezza della
corrispondente classe; l'altezza invece è
calcolata come densità di frequenza, ovvero
essa è pari al rapporto fra la frequenza
(assoluta) associata alla classe e l'ampiezza
della classe.
Esempio di istogramma
L'area della superficie di ogni rettangolo coincide con la frequenza associata alla classe cui il rettangolo si riferisce e
per tale caratteristica gli istogrammi rappresentano un tipo di areogramma. La somma delle aree dei rettangoli è
uguale alla somma delle frequenze dei valori appartenenti alle varie classi.
Volendo si può scegliere di rappresentare nell’istogramma le frequenze relative (anziché le semplici frequenze
assolute) delle varie classi.
Dividendo le frequenze relative di un istogramma per l'ampiezza di ciascuna classe si attuerà un processo di
normalizzazione dell'istogramma ottenendo così un istogramma di densità la cui somma delle aree delle ampiezze di
ciascuna classe rappresentata sarà uguale ad 1.
Nell'ipotesi che la numerosità dei valori osservati tenda a infinito, e contemporaneamente l'ampiezza delle classi
tenda a zero, l'istogramma converge, a sua volta, a una stima (seppur distorta) della legge di probabilità che regola
l'esperimento casuale da cui si osserva il carattere.
Gli istogrammi non devono essere confusi con i grafici a colonne: questi ultimi infatti, a differenza dei primi, hanno
altezza proporzionale alla frequenza e sono costituiti da rettangoli separati tra loro.
Gli istogrammi vengono spesso utilizzati nella fotografia digitale e nel fotoritocco per analizzare la luminosità di
un'immagine.
L'istogramma è uno dei sette strumenti della qualità, si costruisce partendo dalla massima escursione tra i dati
dividendola per gli intervalli desiderati.
Istogramma
Voci correlate
• Areogramma
• Ortogramma
Altri progetti
•
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/
Category:Histograms
Collegamenti esterni
• (EN) Un metodo per la selezione dell'intervallo di classe di un istogramma [1]
• (EN) Un altro metodo per eseguire la stima delle distribuzioni, la Kernel Density Estimation [2]
• Generatore di grafici [3]
Note
[1] http:/ / 2000. jukuin. keio. ac. jp/ shimazaki/ res/ histogram. html
[2] http:/ / research. cs. tamu. edu/ prism/ lectures/ pr/ pr_l7. pdf
[3] http:/ / it. pictovia. com/
Quantile
In statistica il quantile di ordine α è un valore qα che divide la popolazione in due parti, proporzionali ad α e (1-α) e
caratterizzate da valori rispettivamente minori e maggiori di qα.
Calcolo dei quantili
Nel caso di una densità di probabilità la funzione di ripartizione F è continua e il quantile di ordine α è definito da
F(qα)=α. Questo quantile può non essere unico se la funzione di densità è nulla in un intervallo, ovvero se la
funzione di ripartizione è costante ed assume il valore α per più di un valore qα; ciononostante per ognuno di questi
valori la popolazione viene correttamente divisa in due parti proporzionali ad α e (1-α).
Nel caso di una densità discreta il quantile di ordine α è un valore qα nel quale la frequenza cumulata raggiunge o
supera α, ovvero tale che la somma delle frequenze fino a quel valore sia almeno α e che la somma delle frequenze
da quel valore sia al più 1-α. In questo caso, oltre alla non unicità del quantile si può avere una divisione non
proporzionale ad α e 1-α (del resto una popolazione finita non può essere divisa che in un numero finito di modi).
Nel caso di una distribuzione in classi di valori si usa talvolta "supporre" che i valori siano distribuiti in modo
uniforme all'interno di ciascuna classe, in modo da calcolare il quantile (per interpolazione) su una funzione di
ripartizione continua.
In particolare il quantile di ordine 0 è un qualunque valore inferiore al minimo della popolazione; similmente il
quantile di ordine 1 è un qualunque valore superiore al massimo della popolazione.
I quantili possono anche venire utilizzati per indicare delle classi di valori: ad esempio l'insieme della popolazione
"entro il terzo decile" indica quel 30% di popolazione con i valori più bassi.
198
Quantile
Particolari quantili
I quantili di ordini "semplici", espressi come frazioni, vengono anche chiamati con altri nomi. I quantili di ordini 1/n,
2/n, ..., (n-1)/n dividono la popolazione in n parti ugualmente popolate; il quantile di ordine α=m/n è detto m-esimo
n-ile.
• La mediana è il quantile di ordine 1/2.
• I quartili sono i quantili di ordini 1/4, 2/4 e 3/4.
Altri particolari quantili sono:
•
•
•
•
I quintili, di ordine m/5, dividono la popolazione in 5 parti uguali.
I decili, di ordine m/10, dividono la popolazione in 10 parti uguali.
I ventili, di ordine m/20, dividono la popolazione in 20 parti uguali.
I centili, di ordine m/100, dividono la popolazione in 100 parti uguali. Vengono anche chiamati percentili,
esprimendo l'ordine in percentuale: m/100=m%.
A causa della scrittura in frazioni, alcuni quantili hanno più di un nome: il secondo quartile è la mediana (2/4=1/2),
ogni quintile è anche un decile (m/5=2m/10) e così via. Per lo stesso motivo il primo ed il terzo quartile sono
rispettivamente le mediane della metà inferiore e della metà superiore della popolazione.
I ventili e i centili esprimono livelli di confidenza molto utilizzati: 1%, 5%, 95%, 99%.
La media aritmetica dei ventili dal primo al diciannovesimo è detta media ventile ed è uno stimatore robusto della
media. I ventili sono anche utilizzati per definire indici di asimmetria e curtosi.
Bibliografia
• Sheldon M. Ross, 3.3.1 Percentili campionari [1] in Introduzione alla statistica [2], Apogeo Editore, 2008. ISBN
9788850326228
• Richard A. Johnson, 2.6 Quartili e percentili [3] in Probabilità e statistica per Ingegneria e Scienze [4], Pearson,
2007. ISBN 978-88-7192-348-2
• Sheldon M. Ross, 2.3.3 Percentili campionari e box plot [5] in Probabilità e statistica per l'ingegneria e le scienze
[6]
, Apogeo Editore, 2008. ISBN 9788850325801
• Francesca Cristante; Adriana Lis; Marco Sambin, III.3.9 Prime misure di posizione: percentili [7] in Statistica per
psicologi [8], Firenze, Giunti Editore, 2001. ISBN 88-09-02176-2
Voci correlate
•
•
•
•
Funzione di ripartizione
Quartile
Mediana (statistica)
Variabile casuale
Note
[1]
[2]
[3]
[4]
[5]
[6]
[7]
http:/ / books. google. it/ books?id=aMqf1U2DUEUC& pg=PA85& hl=it#v=onepage
http:/ / books. google. it/ books?id=aMqf1U2DUEUC& printsec=frontcover& hl=it& source=gbs_ge_summary_r& cad=0#v=onepage
http:/ / books. google. it/ books?id=0rQ45nxmFw8C& pg=PA35& hl=it#v=onepage
http:/ / books. google. it/ books?id=0rQ45nxmFw8C& printsec=frontcover& hl=it& source=gbs_ge_summary_r& cad=0#v=onepage
http:/ / books. google. it/ books?id=7Q8oKde1jXwC& lpg=PA28& hl=it& pg=PA28#v=onepage
http:/ / books. google. it/ books?id=7Q8oKde1jXwC& printsec=frontcover& hl=it#v=onepage
http:/ / books. google. it/ books?id=VDJh4bZce8wC& lpg=PA208& hl=it& pg=PA208#v=onepage
[8] http:/ / books. google. it/ books?id=VDJh4bZce8wC& printsec=frontcover& hl=it& source=gbs_ge_summary_r& cad=0#v=onepage
199
Quartile
Quartile
In statistica, i quartili sono valori che ripartiscono una popolazione in 4 parti ugualmente popolate.
Sono i quantili q1/4 (primo quartile), q2/4=q1/2 (mediana) e q3/4 (terzo quartile). In altri termini, la frequenza
cumulata fino ai tre quartili è circa 25%, 50% e 75% rispettivamente.
Il secondo quartile è anche detto mediana, e divide la popolazione in due parti ugualmente popolate, delle quali il
primo ed il terzo quartile sono le mediane.
I quartili di un campione ordinato X0, ..., Xn, sono "vicini" ai valori di ordini [n/4], [n/2] e [3n/4].
La differenza tra il terzo ed il primo quartile è un indice di dispersione, lo scarto interquartile; i quartili vengono
inoltre utilizzati per rappresentare un Box-plot.
Voci correlate
• Box-plot
• Mediana
• Quantile
• Scarto interquartile
Indicatore statistico
Un indicatore statistico è una funzione di un insieme finito o infinito di valori. In statistica si costruiscono per
effettuare una sintesi dei dati.
Descrizione
Nella ricerca sociale, si usano concetti generali, troppo astratti per poter essere utilizzati nella ricerca empirica; è
necessario dunque operativizzare i concetti: da un concetto generale (per es. "benessere") bisogna scendere nella
scala di astrazione, semplificandolo (per es."benessere nella condizione economica" o " benessere ambientale"etc.),
così facendo se ne riduce la complessità, selezionandone alcuni aspetti più significativi, che sono legati al concetto di
partenza da un rapporto di indicazione, in quanto ne sono indicatori.
È quindi necessario individuare, nell'ambito di ciascuno di essi, altri indicatori più concreti e più vicini alla realtà,
scomponendoli in sotto-dimensioni (per es. "reddito"). In tal modo si ottengono le variabili, ultimo gradino della
scala di astrazione, anch'esse indicatori del concetto generale.
La modalità con cui si costruiscono le variabili è detta definizione operativa.
Molto spesso le variabili che si usano a livello empirico derivano da un calcolo. Per es. per ottenere il reddito
procapite è necessario dividere l'ammontare complessivo dei redditi di un comune per la popolazione stessa di quel
comune. La scelta del reddito procapite piuttosto che ad es. del reddito complessivo ci evidenzia la relatività della
definizione operativa.
Il passaggio dal concetto generale all'indicatore specifico è sempre incompleto e parziale perché un processo di
semplificazione comporta la perdita di una parte di informazione; ciò è ancora più evidente con concetti molto
complessi per i quali bisogna ricorrere a più indicatori. Uno stesso concetto può essere ridotto ad indicatori diversi
nell'ambito di indagini diverse e di contesti socio-culturali differenti.
I diversi significati attribuibili a un indicatore inducono a considerare elastici i rapporti semantici tra concetti e livelli
di generalità diversi.
Individuando uno o più indicatori, attraverso il rapporto di indicazione, che esprime, anche se parzialmente, il
significato del concetto generale, si può commettere un errore: l'errore di indicazione è la non validità che può
200
Indicatore statistico
verificarsi proprio nel momento in cui si scelgono gli indicatori che esprimono in modo troppo parziale il concetto a
cui si riferiscono, non coprendo così in maniera adeguata l'area semantica del concetto.
La validità si riferisce perciò alla correttezza della concettualizzazione.
Il ricercatore può valutare la validità ripercorrendo il processo di scomposizione del concetto (convalida a vista o per
contenuto), oppure convalidando per criterio, cioè individuando un altro indicatore dello stesso concetto e
controllando se è congruente con quello oggetto di verifica. Questa è una convalida empirica mentre quella per
contenuto e teorica; entrambe non consentono di misurare "quanto" un indicatore sia valido.
Gli errori che si possono compiere nella fase di definizione operativa riguardano l'attendibilità, ovvero sono errori
che possono pregiudicare la capacità dei dati di riprodurre fedelmente le unità di analisi.
Questo può avvenire:
• usando liste di popolazione non aggiornate (errore di copertura)
• nel caso di rilevazioni parziali in cui, se si usa un campione non probabilistico, non si può risolvere l'errore
(errori di campionamento)
• se i soggetti non rispondono (errore di non risposta)
• nel caso in cui sia il rilevatore a compiere l'errore in quanto non adeguatamente preparato
• nella modalità di raccolta (per es. le interviste tel. hanno ritmi serrati che potrebbero indurre a risposte poco
attendibili)
• nel trattamento dei dati che vengono trasferiti in archivi elettronici
Dato che gli indicatori riguardano solo alcuni aspetti del concetto, attraverso un approccio sintetico finale, è possibile
ricombinare le varie variabili per ricostruire così il concetto originario, ottenendo l'INDICE SINTETICO.
Nell'analisi secondaria, invece, l'operativizzazione del concetto è già stata effettuata ed è a partire dalle variabili che
si risale la scala di astrazione. A volte le variabili vanno modificate per essere più adatte all'indagine.
[un indice non può essere definito indicatore fino a che non gli si attribuisce un referente concettuale nell'ambito
della ricerca]
Anche le rappresentazioni grafiche in statistica sono metodi (grafici) di sintesi dei dati.
Indicatori nella teoria statistica
Si distinguono:
indice di posizione
media, mediana, moda, quartile, quantile, ...
indice di dispersione
varianza, deviazione standard, scarto interquartile, coefficiente di variazione, indice di eterogeneità,...
indice di concentrazione
indice di concentrazione di Gini,
indice di diversità
indice di Shannon-Wiener, di Brillouin, di Simpson
indice di correlazione
covarianza, ...
indice di simmetria
vedasi Simmetria (statistica)
indice di curtosi
vedasi curtosi
201
Indicatore statistico
Indicatori nella statistica ufficiale
Nella varie branche della statistica si calcolano appositi indicatori, spesso definiti a livello internazionale.
In generale, ogni volta che un dato aggregato non rappresenta fedelmente il fenomeno osservato (perché limitato nel
tempo, nello spazio o nella definizione dell'universo statistico) tale dato aggregato può essere considerato un
indicatore del fenomeno che si desidera osservare.
Esempio
il dato "Popolazione residente al 31 dicembre 2004" è un indicatore del numero di persone abitanti stabilmente nel
territorio, ma non rappresenta fedelmente il fenomeno in quanto ci sono ritardi nelle registrazioni, esclude le persone
che non si fanno registrare dalle anagrafi, perché cambia ogni giorno, perché stabilmente è un concetto vago ovvero
arbitrario, ecc.
Elenco di indici, tassi, ecc. usati nella pratica
• Demografia
• tasso
• Tasso grezzo, tasso standardizzato
• Tasso di mortalità, Tasso di natalità, Tasso di fecondità totale, Tasso di nuzialità
• Piramide delle età, indice di vecchiaia, indice di sostituzione, indice di dipendenza
• Tasso di immigrazione, Tasso di emigrazione, indice di mobilità
• Popolazione residente, Popolazione presente
• Tavola di mortalità (uno strumento che produce un insieme di indicatori demografici)
• Economia
• Tasso d'inflazione
• Prodotto interno lordo e altri aggregati della Contabilità Nazionale (vedasi Statistica economica)
• Mercato del lavoro
• tasso di disoccupazione, tasso di occupazione, tasso di attività,...
• Occupazione
• Sanità, Epidemiologia
• Tasso di morbosità
• Istruzione
• Tasso di scolarità,
• Tasso di maturità, Tasso di ripetenza,
• Tasso di abbandono scolastico
Bibliografia
• Per un indicatore di dipendenza strutturale rivisitato, cfr. il lavoro di Pammolli Fabio e Nicola C. Salerno
(2008), "Demografia, occupazione, produttività: il federalismo e la sfida della crescita nel Mezzogiorno", nella
collana dei Quaderni del Cerm – Competitività, Regolazione, Mercati (Roma). Si propone un rapporto tra fasce di
età corretto per tener conto dell'occupazione effettiva e della produttività. Cfr. il sito del Cerm: [1]
Note
[1] http:/ / www. cermlab. it
202
Indice di posizione
203
Indice di posizione
Gli indici di posizione (o anche indicatori di posizione, o indici di tendenza centrale o misure di tendenza
centrale), in statistica, danno un'idea approssimata dell'ordine di grandezza (la posizione sulla scala dei numeri,
appunto) dei valori esistenti.
Sono indici di posizione:
• media, comprese la media aritmetica, media geometrica e media armonica
• mediana, quartile, quantile (o percentile)
• moda
Un modo per rappresentare graficamente alcuni indici di posizione è il box-plot.
Voci correlate
• statistica
• indice di dispersione
Intervallo di confidenza
In statistica quando si stima un parametro, la semplice individuazione di un singolo valore è spesso non sufficiente.
È opportuno allora accompagnare la stima di un parametro con un intervallo di valori plausibili per quel parametro,
che viene definito intervallo di confidenza (o intervallo di fiducia).
Se U e V sono variabili casuali con distribuzioni di probabilità che dipendono da qualche parametro θ, e
(dove β è un numero tra 0 e 1)
allora l'intervallo casuale (U, V) è un intervallo di confidenza al "[(1-β)*100 ]% per θ".
I valori estremi dell'intervallo di confidenza si chiamano limiti di confidenza.
Ad esso si associa quindi un valore di probabilità cumulativa che caratterizza, indirettamente in termini di
probabilità, la sua ampiezza rispetto ai valori massimi assumibili dalla variabile aleatoria misurando cioè la
probabilità che l'evento casuale descritto dalla variabile aleatoria in oggetto cada all'interno di tale intervallo,
graficamente pari all'area sottesa dalla curva di distribuzione di probabilità della variabile aleatoria nell'intervallo
considerato.
Impostazione di Neyman
C'è un metodo agevole per il calcolo degli intervalli di confidenza attraverso il test di verifica d'ipotesi (secondo
l'impostazione di Neyman).
L'intervallo di confidenza (o di fiducia) non sarà che un parametro
test (con livello di significatività
tutti i valori
) per saggiare l'ipotesi
=
che si ottiene determinando anzitutto un
contro l'ipotesi
. L'insieme di
per cui si accetterebbe l'ipotesi nulla costituisce un intervallo di confidenza di livello
Un intervallo di confidenza al 95% si può quindi ricavare da un test di verifica d'ipotesi di significatività 5%.
Ipotesi nulla
Ipotesi nulla
Un'ipotesi nulla (letteralmente dall'inglese "ipotesi zero") è un'affermazione sulla distribuzione di probabilità di una
o più variabili casuali.
Nel test statistico viene verificata in termini probabilistici la validità di un'ipotesi statistica, detta appunto ipotesi
nulla, di solito indicata con H0.
Attraverso una funzione dei dati campionari si decide se accettare l'ipotesi nulla o meno. Nel caso l'ipotesi nulla
venga rifiutata si accetterà l'ipotesi alternativa, indicata con H1.
Se si rifiuta un'ipotesi nulla che nella realtà è vera allora si dice che si è commesso un errore di prima specie.
Accettando invece un'ipotesi nulla falsa si commette un errore di seconda specie.
L'ipotesi può essere di tipo funzionale se riferita alla forma della f (x;θ) con θ funzione di densità o di probabilità, o
parametrica se riferita al vettore incognito θ.
L'ipotesi è semplice quando specifica completamente la f(x;θ). Nel caso un'ipotesi non sia semplice si dirà composta.
Quando si considera un solo parametro l'ipotesi semplice è del tipo θ=θ0, dove θ0 è un valore particolare. Un'ipotesi
è unilaterale se è del tipo θ > θ0 oppure del tipo θ < θ0.
Un'ipotesi è bilaterale, invece, se è del tipo θ ≠ θ0 oppure del tipo θ < θ0 e θ > θ0.
Voci correlate
• Ipotesi statistica
• KPSS
• Test di verifica d'ipotesi
Test di verifica d'ipotesi
Il test di verifica d'ipotesi si utilizza per verificare la bontà di un'ipotesi.
Per ipotesi è da intendersi un'affermazione che ha come oggetto accadimenti nel mondo reale, che si presta ad essere
confermata o smentita dai dati osservati sperimentalmente.
Il metodo con cui si valuta l'attendibilità di un'ipotesi è il metodo sperimentale. Quest'ultimo consiste nel determinare
le conseguenze di un'ipotesi in termini di eventi osservabili, e di valutare se la realtà effettivamente osservata si
accorda o meno con l'ipotesi su di essa fatta.
A tal riguardo si distinguono due ambiti in cui tale attività si esplica:
1. deterministico;
2. statistico.
Nell'ambito statistico, a seconda delle ipotesi si distingue tra:
• test parametrico;
• test non parametrico.
204
Test di verifica d'ipotesi
L'ambito deterministico
Nel primo caso si è in grado di pervenire a conclusioni certe. Ad esempio volendo provare se in un circuito elettrico
passa corrente si inserirà una lampadina o un amperometro e si constaterà l'accensione o l'attivazione dello
strumento. In tal caso si perviene con certezza alla conclusione. Se la lampadina si accende allora passa corrente; in
caso contrario il circuito non è predisposto correttamente.
In questo ambito, se nel circuito passa corrente ogni volta che si inserisce una lampadina questa si accende. In caso
contrario il ripetuto inserimento della lampadina darà sempre esito negativo.
L'ambito statistico
Nel secondo caso la situazione è modificata in quanto interviene un elemento nuovo, ovvero il caso. Si supponga di
avere una moneta recante due facce contrassegnate con testa e croce. Volendo verificare l'ipotesi di bilanciamento
della moneta si eseguono 20 lanci e si contano quelli che danno esito testa. La conseguenza del bilanciamento
consiste nell'osservare un valore di teste attorno a 10. Tuttavia anche in ipotesi di bilanciamento non si può escludere
di osservare 20 teste. D'altronde, l'ipotesi di bilanciamento è logicamente compatibile con un numero di teste
variante da 0 a 20. In tale contesto una qualsiasi decisione in merito all'ipotesi da verificare comporta un rischio di
errore. Ad esempio rigettare l'ipotesi di bilanciamento della moneta avendo osservato 20 teste su 20 lanci comporta il
rischio di prendere una decisione errata. Nel procedere alla verifica dell'ipotesi di bilanciamento della moneta, si
ricorre a una variabile casuale X. Tale variabile casuale X è una variabile aleatoria discreta con distribuzione
binomiale B(20; 0,5), dove 20 indica il numero di lanci e 0,5 la probabilità che si verifichi l'evento "testa".
Il risultato sperimentale si deve quindi confrontare con tale distribuzione: quanto è distante tale risultato dal valore
medio della distribuzione B(20; 0,5)? Per rispondere alla domanda si deve individuare un valore caratteristico della
distribuzione B(20; 0,5). Nel nostro caso tale valore caratteristico è il valore medio 20/2 = 10. Per valutare la
distanza tra il valore sperimentale e quello atteso si valuta la probabilità di ottenere un valore sperimentale lontano
dal valore medio di B(20; 0,5), ossìa nel caso che dal nostro esperimento risulti X=15 (15 teste dopo 20 lanci), si
calcola P{|X-10|>=15-10} quindi P{X<=5 oppure X>=15}=0,041.
Quindi, usando una moneta ben bilanciata, la probabilità di ottenere un numero di teste X >= 15 (oppure X <= 5)
dopo 20 lanci è pari a 0,041 ossia al 4,1%. Giudicando bassa tale probabilità si rifiuterà l'ipotesi di bilanciamento
della moneta in esame, accettando quindi il rischio del 4,1% di compiere un errore nel rifiutarla. Di solito, il valore
della probabilità adottato per rifiutare l'ipotesi nulla è < 0,05. Tale valore è detto livello di significatività ed è
definibile come segue: il livello di significatività sotto l'ipotesi nulla è la probabilità di cadere nella zona di rifiuto
quando l'ipotesi nulla è vera. Tale livello di significatività si indica convenzionalmente con α. Il livello di
significatività osservato α del test per il quale si rifiuterebbe l'ipotesi nulla è detto valore-p (p-value). Riprendendo
l'esempio sopra riportato il valore-p è pari a 0,041. Adottando nell'esempio α = 0,05, si rifiuterà l'ipotesi se
P{|X-10|>=x}<0,05. Tale condizione si raggiunge appunto se X<6 oppure X>14. Tale insieme di valori si definisce
convenzionalmente come regione di rifiuto. Viceversa l'insieme { 6,7…14} si definisce regione di accettazione. In
questo modo si è costruita una regola di comportamento per verificare l'ipotesi di bilanciamento della moneta. Tale
regola definisce il test statistico.
In termini tecnici l'ipotesi da verificare si chiama ipotesi nulla e si indica con H0, mentre l'ipotesi alternativa con H1.
Nel caso della moneta, se p è la probabilità di ottenere testa in un lancio la verifica di ipotesi si traduce nel seguente
sistema:
205
Test di verifica d'ipotesi
Come già osservato, il modo di condurre un test statistico comporta un rischio di errore. Nella pratica statistica si
individuano due tipi di errori:
1. rifiutare H0 quando è vera, errore di primo tipo (α) (o errore di prima specie);
2. accettare H0 quando è falsa, errore di secondo tipo (β) (o errore di seconda specie).
Tornando all'esempio della moneta in cui la regione di accettazione è data dall'insieme di valori {6..14}, la
probabilità di rifiutare H0 quando è vera è stato calcolato pari a 0,041.Tale probabilità rappresenta il rischio di
incorrere in un errore di primo tipo e si indica con α. Per valutare la probabilità di un errore di secondo tipo è
necessario specificare un valore di p in caso di verità di H1. Si supponga che p=0,80, in tal caso la distribuzione di X
è una B(20;0,80)
Con tale distribuzione di probabilità, l'errore di tipo 2 si calcola sommando le probabilità relative ai valori di X della
zona di accettazione,ciò supponendo H1 vera. Si trova quindi che la probabilità cercata è pari a circa 0,20. Tale
probabilità quantifica il rischio di incorrere nell'errore di tipo 2. e si indica convenzionalmente con β. La quantità 1-β
si chiama potenza del test ed esprime quindi la capacità di un test statistico di riconoscere la falsità di H0 quando
questa è effettivamente falsa. La potenza del test trova applicazione nella pratica statistica in fase di pianificazione di
un esperimento.
Voci correlate
• Ipotesi nulla
• Variabile casuale
• Valore-p
206
Fonti e autori delle voci
Fonti e autori delle voci
Probabilità Fonte: http://it.wikipedia.org/w/index.php?oldid=53082436 Autori:: 213.21.174.xxx, Alberto da Calvairate, Alearr, Alec, Angela Bonora, Aplasia, Baroc, Blakwolf, Cesalpino,
Codicorumus, Erasmo Barresi, F.chiodo, Fredericks, Gabriel96, Gacio, Gaetano licata, Gcappellotto, GiovanniS, Giovannigobbin, Gipiz, Giulio.Nic, Guidomac, Hashar, Ilario, Jalo, Joana,
Johnlong, Leitfaden, Luisa, M7, Massimiliano Lincetto, Mau db, MenoUNO, Michele-sama, Mr buick, Phantomas, Piddu, Pracchia-78, Profste, Riccioli72, Shaka, Snowdog, StefaPorce, Suisui,
Tener, Ticket 2010081310004741, Tomi, Toobaz, Twice25, Valitutti, Vituzzu, Ylebru, ^musaz, pppfree165-26-bz.aknet.it, 103 Modifiche anonime
Spazio campionario Fonte: http://it.wikipedia.org/w/index.php?oldid=51269611 Autori:: Aubrey, Avesan, Baroc, Buggia, Cesalpino, Domenico De Felice, Gala.martin, Hal8999, Ilario,
Leitfaden, Marcuscalabresus, Piddu, Profste, Sbisolo, Sergejpinka, SpiritoLibero, Tomi, Unmarco, 18 Modifiche anonime
Teoria della probabilità Fonte: http://it.wikipedia.org/w/index.php?oldid=51236402 Autori:: Amanconi, Avesan, Baroc, Beewan1972, Cesalpino, Dr Zimbu, Frieda, Gala.martin, Joevinegar,
Leitfaden, Lgentema, Lyell01, MaxDel, Microsoikos, Nihil, No2, Piddu, Piero Montesacro, Pil56, Rollopack, Sigifredobau, Tomi, Tonello, Ylebru, ^musaz, 19 Modifiche anonime
Indipendenza stocastica Fonte: http://it.wikipedia.org/w/index.php?oldid=47903218 Autori:: 213.21.174.xxx, Arodichevski, Basilero, Buggia, Eumolpo, Flyingstar16, Gala.martin, Lacurus,
Lgentema, Piddu, Pokipsy76, Pracchia-78, Simone, Tomi, 5 Modifiche anonime
Teorema della probabilità composta Fonte: http://it.wikipedia.org/w/index.php?oldid=43716481 Autori:: 213.21.174.xxx, Amanconi, Arodichevski, Baroc, Buggia, Llorenzi, Piddu, Salvatore
Ingala, Sandrobt, Simone, Tomi
Teorema della probabilità assoluta Fonte: http://it.wikipedia.org/w/index.php?oldid=48590656 Autori:: 213.21.174.xxx, Amanconi, Avesan, Buggia, Piddu, Salvatore Ingala, Tomi, 16
Modifiche anonime
Probabilità condizionata Fonte: http://it.wikipedia.org/w/index.php?oldid=52657429 Autori:: 213.21.174.xxx, Andrisano Antonio, Arodichevski, Barrfind, Buggia, Emptywords, Felisopus,
Joevinegar, Leitfaden, Piddu, Pokipsy76, Simone, Suisui, Tomi, Tridim, 21 Modifiche anonime
Teorema di Bayes Fonte: http://it.wikipedia.org/w/index.php?oldid=53077755 Autori:: 213.21.174.xxx, 213.21.175.xxx, Amanconi, Arodichevski, Ayanami Rei, CristianCantoro, Fradelpra,
Gian-, Iskander, Joana, Leitfaden, Leonardis, LoStrangolatore, Lou Crazy, M7, Matteo.Bertini, Megalexandros, Michele-sama, Pequod76, Piddu, Qniemiec, Salvatore Ingala, Tomi, Tommaso
Ferrara, 30 Modifiche anonime
Distribuzione discreta Fonte: http://it.wikipedia.org/w/index.php?oldid=50208293 Autori:: 213.21.175.xxx, Avesan, Barrfind, Bedo2991, Joana, Lacurus, Lenore, Piddu, Tomi,
pppfree166-112-bz.aknet.it, 15 Modifiche anonime
Distribuzione discreta uniforme Fonte: http://it.wikipedia.org/w/index.php?oldid=51266176 Autori:: Barrfind, Buggia, Delas, Drakend, Joana, MM, Marcuscalabresus, Michele-sama, No2,
Piddu, Sandrobt, Simone, Snowdog, Tomi, Zmlsf2b, pppfree165-15-bz.aknet.it, pppfree166-112-bz.aknet.it, 8 Modifiche anonime
Distribuzione di Bernoulli Fonte: http://it.wikipedia.org/w/index.php?oldid=52557638 Autori:: Andrisano Antonio, Barrfind, Drakend, Gvittucci, Joana, Marcuscalabresus, Tomi, Utente,
pppfree165-204-bz.aknet.it, pppfree165-93-bz.aknet.it, pppfree166-235-bz.aknet.it, 13 Modifiche anonime
Processo di Bernoulli Fonte: http://it.wikipedia.org/w/index.php?oldid=48507770 Autori:: Andrisano Antonio, Avemundi, Eumolpo, No2, 4 Modifiche anonime
Distribuzione binomiale Fonte: http://it.wikipedia.org/w/index.php?oldid=51266077 Autori:: 213.21.175.xxx, Alez, Barrfind, Berto, CarloV, Codicorumus, Eumolpo, Freddyballo, Gwilbor,
Hashar, Iskander, Joana, L'altro giocoliere, Lacurus, Marcuscalabresus, Massimiliano Lincetto, Michele-sama, Onix135, Paopis, Phantomas, Sanremofilo, Simone Scanzoni, Suisui, Tomi, Utente,
pppfree166-235-bz.aknet.it, 32 Modifiche anonime
Distribuzione geometrica Fonte: http://it.wikipedia.org/w/index.php?oldid=52674445 Autori:: Adamanttt, Baroc, Barrfind, Blakwolf, Bluled, DanieleSciolla, ELPiazza, Ersonny, Frigotoni,
Gokhan, Hashar, Jmc.88, Joana, Lprmrz, Massimiliano Panu, Michele-sama, Onix135, Phantomas, Piddu, Sir John, Tomi, Toobaz, Utente, WK, Yatagan, pppfree165-204-bz.aknet.it,
pppfree166-112-bz.aknet.it, 41 Modifiche anonime
Distribuzione di Poisson Fonte: http://it.wikipedia.org/w/index.php?oldid=51266155 Autori:: AMenteLibera, Alez, Arodichevski, Baroc, Barrfind, Broc, Dproduzioni, Fain182, Hashar, Hce,
Joana, Michele-sama, Moroboshi, Nickanc, Pokipsy76, Sadysamar, Salsoul92, Sandrobt, Sergejpinka, Suisui, Tomi, Utente, host14-135.pool80117.interbusiness.it, pppfree166-112-bz.aknet.it,
pppfree166-167-bz.seq.it, 58 Modifiche anonime
Distribuzione di Pascal Fonte: http://it.wikipedia.org/w/index.php?oldid=51266144 Autori:: Barrfind, Caulfield, Dr Zimbu, Herstory, Joana, Onix135, Piddu, Salvatore Ingala,
Tkt2008123110019475, Tomi, pppfree165-204-bz.aknet.it, pppfree166-63-bz.aknet.it, 10 Modifiche anonime
Distribuzione continua Fonte: http://it.wikipedia.org/w/index.php?oldid=53023514 Autori:: Avesan, Buggia, Dega180, Eumolpo, Gpmat, Joana, Lacurus, Lenore, Piddu, Sandrobt, Tomi,
pppfree165-118-bz.seq.it, pppfree166-167-bz.seq.it, 13 Modifiche anonime
Funzione di ripartizione Fonte: http://it.wikipedia.org/w/index.php?oldid=51267116 Autori:: 213.21.175.xxx, Amanconi, Avesan, Baroc, Buggia, Eumolpo, Fredericks, Jalo, Joevinegar,
Lacurus, Larry Yuma, Leitfaden, Leonardis, Leoplct, Llorenzi, Mark91, Piddu, Quellogrosso, Simone, The Ouroboros, Tomi, Toobaz, UP, Zlafeg, 35 Modifiche anonime
Funzione di densità di probabilità Fonte: http://it.wikipedia.org/w/index.php?oldid=49266022 Autori:: Alec, Avesan, Buggia, HyperText, Ilario, Krdan, Leonardis, Piddu, Quanto, Retaggio,
Simo82, Tino 032, Tomi, UP, W.visconti, Wiso, ^musaz, 7 Modifiche anonime
Variabile casuale Fonte: http://it.wikipedia.org/w/index.php?oldid=53095744 Autori:: 213.21.175.xxx, Agosteeno, Avesan, Buggia, Codicorumus, Colom, Gala.martin, Gokhan, Grigio60,
Guido Magnano, Ik1tzo, Jacop, Joana, Joevinegar, Kazza, Kiwi, Lacurus, Leonardis, Luca Antonelli, Megalexandros, Numbo3, Patafisik, Piddu, Riccioli72, Sandrobt, Sbisolo, Suisui, Tomi,
Utente, W4r3x, ^musaz, pppfree165-204-bz.aknet.it, 51 Modifiche anonime
Variabili dipendenti e indipendenti Fonte: http://it.wikipedia.org/w/index.php?oldid=39429888 Autori:: Arodichevski, Ary29, Barrfind, Lord Hidelan, Mau db, Simo82, 4 Modifiche anonime
Valore atteso Fonte: http://it.wikipedia.org/w/index.php?oldid=52129266 Autori:: Amanconi, Antonio78, Bassabros, Buggia, Codicorumus, Dr Zimbu, Fire90, Gala.martin, Giacomo.lucchese,
Gim²y, IlBeso, Joevinegar, Lacurus, Luca Antonelli, Onix135, Paul Gascoigne, Phantomas, Piddu, Pokipsy76, Salvo da Palermo, Seics, Soprano71, Stecrimi, Tomi, Toobaz, UP, Utente, Vu Duc
Thang, pppfree165-15-bz.aknet.it, 38 Modifiche anonime
Varianza Fonte: http://it.wikipedia.org/w/index.php?oldid=52648811 Autori:: Adert, Alexander Luthor, Amanconi, Arodichevski, Barrfind, Daniele Pugliesi, Epoc, Ercaran, Fabriziogambino,
Furriadroxiu, Gabriele85, Grigio60, Gvittucci, Leonardis, Lord Hidelan, Massimiliano Lincetto, Nico86roma, Pacini409, Panairjdde, Paolo Sebastiano Valvo, Paradoxengine, Phantomas, Red
Power, Riccioli72, Sandrobt, Seics, Sergejpinka, Stemby, Suisui, Tomi, 71 Modifiche anonime
Legge della varianza totale Fonte: http://it.wikipedia.org/w/index.php?oldid=53137806 Autori:: Amanconi, Gabriele85, Gvittucci, Ylebru, 5 Modifiche anonime
Covarianza Fonte: http://it.wikipedia.org/w/index.php?oldid=52219900 Autori:: Adert, Amanconi, AnjaManix, Arodichevski, Barrfind, Bella Situazione, Biopresto, Cog, Gabriele85, Gianluigi,
Herdakat, Llorenzi, Martin Mystère, Mistercaste, PersOnLine, Piddu, Template namespace initialisation script, Tomi, Utente, Wiso, 21 Modifiche anonime
Deviazione standard Fonte: http://it.wikipedia.org/w/index.php?oldid=53061279 Autori:: 1000voi, 213.21.175.xxx, Adert, Alfio, Alkalin, Arodichevski, Basilicofresco, Blaisorblade, Blakwolf,
DanGarb, Dennis, Duccio.vigolo, EffeX2, Gabriele85, Gemini1980, Hashar, Kamina, Llorenzi, Lord Hidelan, Mark91, Massimiliano Lincetto, Maxpic69, Panairjdde, Pandit, Paolo Sebastiano
Valvo, Pattarello, Piddu, Pressman2009, Rael, Semibradi, SimoneMLK, Simonefrassanito, Snowdog, SolePensoso, Stemby, Suisui, Template namespace initialisation script, Tomi, Tommaso
Ferrara, Twice25, host226-101.pool212171.interbusiness.it, 71 Modifiche anonime
Media (statistica) Fonte: http://it.wikipedia.org/w/index.php?oldid=52837883 Autori:: .snoopy., 213.21.175.xxx, 51449e5f.cable.wanadoo.nl, Adert, Adfc, Aldur, Alec, Alpt, Amanconi,
AnjaManix, Arodichevski, Ary29, Ask21, Avesan, Berto, Calabash, Civvì, Cogna93, DanGarb, Daniele Pugliesi, Djdomix, DoppioM, Elborgo, F l a n k e r, Fox vincy, Frieda, Ft1, Gabriele85,
Gac, Ggg, Guido Magnano, Guidomac, IlCapo, Iron Bishop, Isil, Kal-El, Lacurus, Lord Hidelan, Luca.lombini, Lusum, M7, Madaki, Mark91, Massimiliano Lincetto, Maxsimo6771, Melos,
Michele-sama, MrOrange, Nafutesfera, Ngshya, No2, Oks, Phantomas, Piddu, Pracchia-78, Pressman2009, Rael, Sbisolo, Sergejpinka, Snowdog, Taueres, Ticket 2010081310004741, Tino 032,
Tomi, Twice25, 201 Modifiche anonime
207
Fonti e autori delle voci
Distribuzione normale Fonte: http://it.wikipedia.org/w/index.php?oldid=53010270 Autori:: .mau., Alberto da Calvairate, Amanconi, Blakwolf, Bongalone, Ceccorossi, Cisco79, Elninopanza,
Ercaran, Gionnico, Giuliodomus, Hashar, Joana, L'altro giocoliere, Lp, Lumage, Malcom1976, MapiVanPelt, Marcodev, Merovingian, Phantomas, Piddu, Pracchia-78, S141739, Sandrobt, Suisui,
Tank00, Tino 032, Tomi, Utente, Veneziano, ^musaz, pppfree165-15-bz.aknet.it, pppfree165-204-bz.aknet.it, pppfree165-53-bz.aknet.it, pppfree165-65-bz.aknet.it, 65 Modifiche anonime
Funzione di ripartizione della variabile casuale normale Fonte: http://it.wikipedia.org/w/index.php?oldid=51948191 Autori:: Avesan, Basilicofresco, Brownout, Diritto, EffeX2, Joana,
Kormoran, Stefano-c, Tomi, Utente, pppfree165-204-bz.aknet.it, pppfree166-167-bz.seq.it, 4 Modifiche anonime
Distribuzione t di Student Fonte: http://it.wikipedia.org/w/index.php?oldid=52250411 Autori:: Angelorenzi, Barrfind, Buggia, Darth Kule, Ercaran, Eumolpo, Frieda, Gabriele Nunzio
Tornetta, Joana, Lord Hidelan, Martin Mystère, Mauro742, Nyrk, Omino di carta, Phantomas, Piddu, Sandrobt, Stefanopiep, Tomi, Tommaso Ferrara, Utente, Utonto, pppfree165-191-bz.aknet.it,
pppfree165-204-bz.aknet.it, 81 Modifiche anonime
Distribuzione chi quadrato Fonte: http://it.wikipedia.org/w/index.php?oldid=52219768 Autori:: Barrfind, Elauksap, Eumolpo, FrancescoT, Gvittucci, Hashar, Hellis, Joana, Larry87,
Leonardis, Llorenzi, Marcol-it, Nase, Suisui, Tomi, Tommaso Ferrara, Utente, pppfree165-204-bz.aknet.it, pppfree165-26-bz.aknet.it, pppfree166-31-bz.seq.it, pppfree166-44-bz.aknet.it,
pppfree166-63-bz.aknet.it, 35 Modifiche anonime
Distribuzione di Fisher-Snedecor Fonte: http://it.wikipedia.org/w/index.php?oldid=51266126 Autori:: Aljosha89, Arodichevski, Barrfind, Buggia, Califasuseso, Dega180, Eumolpo, Fornaeffe,
Fstefani, Guidomac, Joana, Lord Hidelan, Martin Mystère, Nase, SCDBob, Sandrobt, Sanremofilo, Snowdog, Suisui, Tomi, pppfree165-204-bz.aknet.it, pppfree166-168-bz.aknet.it, 18 Modifiche
anonime
Disuguaglianza di Čebyšëv Fonte: http://it.wikipedia.org/w/index.php?oldid=52219115 Autori:: 213.21.175.xxx, AnyFile, Arodichevski, Beewan1972, Blink89, Buggia, Dr Zimbu, Gvittucci,
Iskander, Leonardis, Marcuscalabresus, Piddu, Salvatore Ingala, Sergejpinka, Suisui, Tomi, Uswzb, WinstonSmith, pppfree165-93-bz.aknet.it, 7 Modifiche anonime
Disuguaglianza di Markov Fonte: http://it.wikipedia.org/w/index.php?oldid=52225050 Autori:: Amanconi, Avesan, Blackcat, Dr Zimbu, Leonardo25, Raffaelemeroni, Salvatore Ingala,
Sandrobt, Tomi, 4 Modifiche anonime
Legge dei grandi numeri Fonte: http://it.wikipedia.org/w/index.php?oldid=49534024 Autori:: Alec, Alez, Amanconi, Amarvudol, Andy2718, Arodichevski, AttoRenato, Baroc, Broc,
Codicorumus, Elwood, Erud, FabioResta, Hellis, Joana, Kamina, Kormoran, Lacurus, LapoLuchini, Laurentius, M7, Piddu, Pracchia-78, Remulazz, Retaggio, Salvatore Ingala, Sergejpinka,
Simone, Tomi, Wago, Wiso, pppfree165-93-bz.aknet.it, 34 Modifiche anonime
Teoremi centrali del limite Fonte: http://it.wikipedia.org/w/index.php?oldid=51475421 Autori:: Arodichevski, Emanuele.paolini, Francesco Spadaro, Gabriele85, Giacomo.lucchese,
Guagno333, Pokipsy76, Sirabder87, Sumail, Tank00, Tino 032, 31 Modifiche anonime
Processo markoviano Fonte: http://it.wikipedia.org/w/index.php?oldid=52774969 Autori:: Alez, Arodichevski, Banjo, Berto, Blackcat, EffeX2, FrAnCiS, MarcoBoretto, Marcoesiste,
MattLanf, Patafisik, Piddu, Qualc1, Raffaelemeroni, Romanm, Sandrobt, Sanremofilo, Simbo1980, Simone, Tomi, Tommaso Ferrara, ^musaz, pppfree165-204-bz.aknet.it, 33 Modifiche anonime
Calcolo combinatorio Fonte: http://it.wikipedia.org/w/index.php?oldid=52677949 Autori:: Abbax, Airon90, Alberto da Calvairate, Aleb, Bizio, Deltasun, Fale, Frazzone, Frieda, Frigotoni,
Gim²y, Guido Maccioni, Guido Magnano, Hobione, Jalo, Kamina, Labba94, Leitfaden, Mikimouse3, Nick, Parerga, Phantomas, Pracchia-78, Qualc1, Ripepette, Shivanarayana, Snowdog, Tomi,
Toobaz, Unriccio, Ylebru, 115 Modifiche anonime
Coefficiente binomiale Fonte: http://it.wikipedia.org/w/index.php?oldid=47882038 Autori:: 213.21.175.xxx, Alberto da Calvairate, BRussell, Brownout, C.piovesan, Cesalpino, Domenico De
Felice, F l a n k e r, Gabriele Nunzio Tornetta, Iskander, Joana, Kar.ma, Leitfaden, Paopis, Salvatore Ingala, Shankao, SkZ, Tomi, Utente, Verdedinotte, Ylebru, Zetti ~, 13 Modifiche anonime
Teorema binomiale Fonte: http://it.wikipedia.org/w/index.php?oldid=52948168 Autori:: Alberto da Calvairate, Alu94, Basilero, Buggia, Cesalpino, Fradelpra, Giulio.orru, Giò² !,
Megalexandros, No2, Paopis, Piddu, Pokipsy76, Salvatore Ingala, Sandrobt, Startrek Leonardo, Sumail, Tommaso Ferrara, Ylebru, 49 Modifiche anonime
Coefficiente multinomiale Fonte: http://it.wikipedia.org/w/index.php?oldid=51034622 Autori:: Alez, Joana, Leitfaden, MattLanf, No2, Tomi, Utonto, Ylebru, 12 Modifiche anonime
Problema di Monty Hall Fonte: http://it.wikipedia.org/w/index.php?oldid=52911489 Autori:: .mau., Airon90, Amanconi, Ancelli, Aplasia, Assianir, Avesan, B3t, Baroc, Camera 9,
Carlo.milanesi, CavalloRazzo, Daniele Pugliesi, Diego Petrucci, Doctor Dodge, Dr Zimbu, Etienne, Eumolpo, EvilPrince, Fradelpra, Gvittucci, Hellis, Hires, Holdme, Il Teu, Incola, Jakbest,
Joana, Kasper2006, LaseriumFloyd, LoStrangolatore, Luca Antonelli, Lumage, Marco.parrilla, Massimiliano Panu, Matrix87, Metallo, Michele-sama, Mp3.7, Mpitt, Nickanc, Noieraieri,
Phantomas, Piddu, Salvo da Palermo, Sandrobt, Sesquipedale, Snowdog, Square87, Stark79, Superzen, The Kraff, Tia solzago, Ticket 2010081310004741, Tomi, Toobaz, Trixt, Vituzzu, Ylebru,
108 Modifiche anonime
Paradosso delle tre carte Fonte: http://it.wikipedia.org/w/index.php?oldid=45400576 Autori:: Andpagl, Andrea.gf, Baroc, Basilero, Cloj, F l a n k e r, Godaime, MapiVanPelt, Michele-sama,
Mp3.7, Pequod76, PersOnLine, Piddu, Tomi, Toobaz, 14 Modifiche anonime
Paradosso dei due bambini Fonte: http://it.wikipedia.org/w/index.php?oldid=52448698 Autori:: Cloj, Garibaldino, Hellis, LucAndrea, Lucbie, Lumage, Merovingian, Nrykko, Piddu, Sandrobt,
Tomi, Toobaz, 16 Modifiche anonime
Paradosso del compleanno Fonte: http://it.wikipedia.org/w/index.php?oldid=52666608 Autori:: *Raphael*, .mau., Abisys, Alez, Blue star 19, Cenncroithi, Colom, Fafabifiofo, Gi87, Guam,
Hellis, Leo72, Luciodem, Marius, Mauron, Michele-sama, Pacionet, Piddu, Poeta60, Rael, Sbisolo, Simo ubuntu, Tomi, Wanblee, Wikiradar, Wolland, Yoruno, 17 Modifiche anonime
Blackjack Fonte: http://it.wikipedia.org/w/index.php?oldid=53157658 Autori:: 2001:1418:100:1B5:0:0:0:2, AnyFile, Ariel, Astrokey44, AttoRenato, B3t, Bart88, Casinoonline24,
Crepuscolo1910, Crys0000, DaniDF1995, Dega180, Elcerqua, Eumolpo, Eustace Bagge, F l a n k e r, Fale, Freude.schoner.gotterfunken, Gacio, Gce, Giovannigobbin, Giudice frump, Goemon,
Guidomac, Gvf, Helios, Kallima, Kiky&glo, Kill off, Koji, Laurentius, LikeLifer, Lorenzo RB, Lp, Lucas, Luisa, M7, MapiVanPelt, Marcingietorigie, Marcok, Mau db, Melia77, Midnight bird,
Paginazero, Paulie3691, Piddu, Pino alpino, Pitroipa10, Rael, Retaggio, Rinina25, Rojelio, Shaka, Shivanarayana, Shout, Simon70, Snowdog, Tadino, Tommaso Ferrara, Toobaz, Twice25,
Umberto1969, Veneziano, Vipera, Vu Duc Thang, Wappi76, Wikirock, Znick85, 130 Modifiche anonime
Poker Fonte: http://it.wikipedia.org/w/index.php?oldid=52629679 Autori:: .anaconda, Abbabash, Alfio, Ambriovunque, AmonSûl, Andrea.epifani, Antoniomy, Arahant, Archenzo, Ask21,
Assoquadri, Barbaking, CDS33, Calchi, CarloV, Chlorpromazine, Cruccone, Dabao, Danielemarata, Davide21, Delasale, Delfort, Dino246, DostoHouskij, Drugonot, Drumstian, Elisabetta
Sanguineti, Elwood, Eumolpo, F l a n k e r, Fabiov, Fale, Fiazzo, Filnik, FrancescaZanutto, Frieda, Fuxpio, Gacio, Gbnogkfs, Ggonnell, Gianfranco, Gliu, Goemon, Goliardico, Guidomac, Gvf,
Hamed, Hashar, Hauteville, Helios, Hellis, Hrundi V. Bakshi, Ignlig, Invision2.0, Iron Bishop, Jacopo, Joana, KS, Kibira, Klaudio, L736E, Larry Yuma, LikeLifer, Lilja, Lp, Lucas, Luccaro, M7,
MM, Madaki, Manusha, MapiVanPelt, Marcingietorigie, Marco Meloni, Massimiliano Bultrini, Mastazi, Mau db, Mess, Micione, MikyT, Mirko69, Moongateclimber, Moroboshi, NadiaGrace,
Nalegato, Nick1915, Olando, Oni link, Ons, Osmosis, POKERFACTOR, PersOnLine, Phantomas, Pino alpino, Poker4passion, Pomo 00, Quaro75, Rafaele liraz, Ranma25783, Rdocb, Reddstain,
Riprova, Rojelio, Rollopack, Sailko, Sal.acu, Sesquipedale, Shaka, Simone, Snowdog, Soblue, Squattaturi, StefanoBZ, Stefanopro, Tafkaf, Template namespace initialisation script, ThG, Ticket
2010081310004741, TierrayLibertad, Triquetra, Tund3r, Twice25, Ughetto23, Ugopanco, Vu Duc Thang, Wikirock, Willyminor, Ylebru, 293 Modifiche anonime
Roulette Fonte: http://it.wikipedia.org/w/index.php?oldid=53129971 Autori:: Aplasia, Ares, Ary29, Avesan, Barbaking, Bart88, Bartleby08, Barz8, BohemianRhapsody, Buggia,
Casinoonline24, Cialz, Cinzia1211, Claude85, Conte di Sarre, Delfort, Dino246, Domenico De Felice, Gacio, Gliu, Kranjo, L736E, LikeLifer, Lucas, M7, MaiDireChiara, Mala, Mark91,
Maugiannoni, Metralla, No2, Personne1212, Phantomas, Pozivo, Ranma25783, Salento81, Shivanarayana, Simon70, SimoneMLK, Simonmagic, Ticket 2010081310004741, Toobaz, Torsolo,
Wikirock, 85 Modifiche anonime
Continuità assoluta Fonte: http://it.wikipedia.org/w/index.php?oldid=49416714 Autori:: AMenteLibera, Alberto da Calvairate, BKH77, Baroc, Buggia, Gala.martin, Piddu, ^musaz, 8
Modifiche anonime
Integrale Fonte: http://it.wikipedia.org/w/index.php?oldid=52683810 Autori:: .mau., Airon90, Albano Serena, Alberto da Calvairate, Alemi82, Alessandro De Laurentiis, Alfio, Alkalin, Ancelli,
AnyFile, Asymmetric, Automatik, Baroc, Basilero, Blakwolf, Brazzo, Cesalpino, Cisco79, Daniele, Dissonance, Djdomix, Djechelon, Dmharvey, Domenico De Felice, Dr Zimbu, Eginardo,
Elwood, Eumolpa, Eumolpo, Fatzeus, Fioravante Patrone, FrAnCiS, Franz Liszt, Gco, Giorgio Nicoletti, Gliu, Goemon, Guarracino, Guidomac, Hashar, Hellis, Henrykus, IlCapo, Illinois,
Kamina, Laurentius, Lellats, Leonardis, Lo Skana, Lodo g, Lord Hidelan, Luca Antonelli, Lulo, MacLucky, Marce79, Marcol-it, Massimiliano Panu, Mastersap, Matsoftware, Mega-X, Naufr4g0,
No2, Noieraieri, Nsgambaro, Number 21, Oracolante, Paopis, Penaz, PersOnLine, Phantomas, Piddu, Piero, Pokipsy76, Pracchia-78, Riccardocc2, Salvatore Ingala, Sancio.pancia, Shivanarayana,
Stefano Bit, Stepho, Suisui, Suturn, Tertore, Ticket 2010081310004741, Tomi, Toobaz, V.alessandro, Varogami, Viames, Vituzzu, Voldemort87, W.visconti, Wiso, Ylebru, ^musaz, 235
Modifiche anonime
Convoluzione Fonte: http://it.wikipedia.org/w/index.php?oldid=51265459 Autori:: .anaconda, Alez, Baroc, Buggia, Claude, DanGarb, Dexterp37, Djechelon, EffeX2, Esculapio, Franco3450,
Jok3r, Lion-hearted85, Lulo, Madaki, Marius, Piddu, Pil56, Pokipsy76, Pracchia-78, Snowdog, Summerwind, Svante, Ulisse0, Wiso, Ylebru, ^musaz, 34 Modifiche anonime
208
Fonti e autori delle voci
Sigma-algebra Fonte: http://it.wikipedia.org/w/index.php?oldid=50119107 Autori:: Alec, Claude85, Dariuz borghigiano, Gala.martin, Harmless, Helios, Hellis, Moroboshi, No2, Piddu,
Pracchia-78, SpiritoLibero, Wiso, Ylebru, ^musaz, 23 Modifiche anonime
Algoritmo di Metropolis-Hastings Fonte: http://it.wikipedia.org/w/index.php?oldid=45372804 Autori:: Arodichevski, Avesan, Edgardof, Eed3si9n, Eginardo, Marcoesiste, Piddu, Zmlsf2b
Metodo Monte Carlo Fonte: http://it.wikipedia.org/w/index.php?oldid=54003565 Autori:: .mau., A.Cython, Albitex, Alexav8, Antonell, Arodichevski, Banus, Ciccio7, Cieffegi, Cisco79,
Cruccone, Daniele Pugliesi, Edo82, Frieda, Ggg, Hellis, Link89, Louisbeta, Marius, Maurizio.Cattaneo, Napo Orso Capo, No2, Orso della campagna, Phantomas, Ramac, Sailko, Sandinista,
Senpai, Skawise, Svante, Tia solzago, Tomi, Twice25, Utente, Vituzzu, Zmlsf2b, 58 Modifiche anonime
Statistica Fonte: http://it.wikipedia.org/w/index.php?oldid=54144998 Autori:: .anaconda, .snoopy., 213.21.174.xxx, 213.21.175.xxx, Adert, Alberto di Cristina, Aleksander Sestak, Alessio
Ganci, Alfio, Amanconi, Anguilano.f, Antonio Calossi, Atti, Baroc, Blakwolf, Bluemask, Broc, Brownout, Carlo.milanesi, Cluster.One, CristianCantoro, Daniele Pugliesi, Diuturno, Dr Zimbu,
Elisabetta, Eumolpa, Eumolpo, Fale, Flooding, Francescadellaratta, Franz Liszt, Frieda, Frigotoni, Gabriele85, Gionnico, Giorces, Giovannigobbin, Giurista, Giuseppe De Marte, Guidomac,
Ittodiug, Jabbba, Jose Antonio, Leitfaden, Lord Hidelan, Luca Visentin, Luisa, M7, MaEr, MarcoBiffino, MarcoPotok, Melkor II, Melos, Metodio, Michele-sama, Micione, Mosca, Msebast, No2,
Numbo3, Paginazero, Pap3rinik, Pequod76, Phantomas, PieroR, Pracchia-78, Pressman2009, Quaro75, Restu20, Rl89, Salvatore Ingala, Senpai, Sergejpinka, StefanoMP, Suisui, Supernino,
Tamme, Template namespace initialisation script, Ticket 2010081310004741, Tomi, Torredibabele, Uswzb, Viguarda, Vitomar, XScratchAx, Ylebru, ^musaz, 149 Modifiche anonime
Inferenza statistica Fonte: http://it.wikipedia.org/w/index.php?oldid=48983948 Autori:: Alkalin, Amanconi, Arodichevski, Ary29, Ask21, Civvì, EffeX2, Gugga, Joana, Lacurus, Lord Hidelan,
Luisa, Montreal, Patafisik, Sarastro, Sbisolo, Snowdog, Soprano71, Tomi, Toobaz, 今 古 庸 龍, 30 Modifiche anonime
Campionamento statistico Fonte: http://it.wikipedia.org/w/index.php?oldid=50353762 Autori:: Antonio.Gulino, Arodichevski, Avemundi, Avesan, Blackcat, Calgaco, Cayman88, Civvì,
Cruccone, Delfort, EffeX2, Eumolpo, Gabriele85, Gaux, Giangagliardi, Joana, Mizardellorsa, Nase, Sergejpinka, Tomi, Utente, Valepert, Veneziano, Vipera, pppfree166-235-bz.aknet.it, 10
Modifiche anonime
Box-plot Fonte: http://it.wikipedia.org/w/index.php?oldid=53994773 Autori:: 213.21.175.xxx, Adert, Astroph, Avesan, Fredericks, Lacurus, Lukius, No2, Phantomas, Tomi, Utente, Zmlsf2b, 17
Modifiche anonime
Istogramma Fonte: http://it.wikipedia.org/w/index.php?oldid=53893795 Autori:: Adert, Antonio Caruso, Archenzo, Arodichevski, Avesan, Ayexeyen, B3t, Biopresto, Daniele Pugliesi, EffeX2,
Emanuele piga, Francesco R., Frigotoni, Gehadad, GiacomoV, Lacurus, Llorenzi, Luke94, MaEr, Marcuscalabresus, Moon lights, MoonBeam77, Mox83, No2, RaminusFalcon, Sbisolo,
StefanoMP, Utente, 28 Modifiche anonime
Quantile Fonte: http://it.wikipedia.org/w/index.php?oldid=53219147 Autori:: 213.21.175.xxx, Actarux, Ale Cresta, Alfio, Arodichevski, Astroph, Avesan, Barrfind, Buggia, Christihan, Crillion,
Dandrix89, Dirrival, Movses, Patafisik, Pedro Felipe, Sesquipedale, Stefano Nesti, Template namespace initialisation script, Tintin the reporter, Tomi, Twice25, Utente, 12 Modifiche anonime
Quartile Fonte: http://it.wikipedia.org/w/index.php?oldid=53115175 Autori:: 213.21.175.xxx, Actarux, Adert, Astroph, Avesan, Dirrival, Patafisik, Phantomas, Pipes86, Simone, Tomi,
Veneziano, pppfree166-63-bz.aknet.it, 10 Modifiche anonime
Indicatore statistico Fonte: http://it.wikipedia.org/w/index.php?oldid=51504358 Autori:: 213.21.175.xxx, Arodichevski, Astroph, Avesan, Basilicofresco, Giorces, Robertotex, Sbisolo, Tomi,
Utente, 12 Modifiche anonime
Indice di posizione Fonte: http://it.wikipedia.org/w/index.php?oldid=49463505 Autori:: 213.21.175.xxx, Astroph, Avesan, ChemicalBit, Francesco R., Gig, Simone, TierrayLibertad, Tomi, 4
Modifiche anonime
Intervallo di confidenza Fonte: http://it.wikipedia.org/w/index.php?oldid=52221976 Autori:: Arodichevski, EffeX2, Francesco R., Gabriele85, Lord Hidelan, Walter89, 16 Modifiche anonime
Ipotesi nulla Fonte: http://it.wikipedia.org/w/index.php?oldid=54347157 Autori:: Alec, Amaralaw, Arodichevski, Ary29, Cisco79, Gabriele85, GiaGar, Lord Hidelan, MaxDel, Sergejpinka,
StWA, Tomi, Tri Cetiri Sad, Vigevanese, pppfree166-31-bz.seq.it, 6 Modifiche anonime
Test di verifica d'ipotesi Fonte: http://it.wikipedia.org/w/index.php?oldid=54346911 Autori:: Andyspiros, Avesan, Biopresto, Bultro, Dariolollissimo, Gabriele85, Gvnn, Lacurus, Lari, Lord
Hidelan, Ocia87, Philoz, Rupertsciamenna, Sbisolo, Sergejpinka, Snowdog, Tomi, Tommaso Ferrara, Toobaz, Utente, Veneziano, Vigevanese, 54 Modifiche anonime
209
Fonti, licenze e autori delle immagini
Fonti, licenze e autori delle immagini
File:6sided dice.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:6sided_dice.jpg Licenza: Creative Commons Attribution-Sharealike 3.0 Autori:: Diacritica
Immagine:Commons-logo.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Commons-logo.svg Licenza: logo Autori:: SVG version was created by User:Grunt and cleaned up by 3247,
based on the earlier PNG version, created by Reidab.
File:Bayes' Theorem 3Dv2.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Bayes'_Theorem_3Dv2.png Licenza: Creative Commons Zero Autori:: Qniemiec
Image:DUniform_distribution_PDF.png Fonte: http://it.wikipedia.org/w/index.php?title=File:DUniform_distribution_PDF.png Licenza: GNU Free Documentation License Autori::
EugeneZelenko, PAR, WikipediaMaster
Image:DUniform_distribution_CDF.png Fonte: http://it.wikipedia.org/w/index.php?title=File:DUniform_distribution_CDF.png Licenza: GNU Free Documentation License Autori::
EugeneZelenko, PAR, WikipediaMaster
Image:Binomial distribution pmf.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Binomial_distribution_pmf.svg Licenza: Public Domain Autori:: Tayste
Image:Binomial distribution cdf.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Binomial_distribution_cdf.svg Licenza: Public Domain Autori:: Tayste
Image:Geometricpdf.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Geometricpdf.jpg Licenza: GNU Free Documentation License Autori:: Joxemai, Magog the Ogre, Olaf
Image:Geometriccdf.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Geometriccdf.jpg Licenza: GNU Free Documentation License Autori:: Original uploader was AdamSmithee at
en.wikipedia
File:Poisson pmf.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Poisson_pmf.svg Licenza: Creative Commons Attribution 3.0 Autori:: Skbkekas
File:Poisson cdf.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Poisson_cdf.svg Licenza: Creative Commons Attribution 3.0 Autori:: Skbkekas
Image:Negbinomial.gif Fonte: http://it.wikipedia.org/w/index.php?title=File:Negbinomial.gif Licenza: Public Domain Autori:: Stpasha
Immagine:Grafico_v.c.uniforme.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Grafico_v.c.uniforme.png Licenza: GNU Free Documentation License Autori:: Archeologo,
Lacurus, Tomi, 1 Modifiche anonime
Immagine:Grafico_v.c.Gaussiana.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Grafico_v.c.Gaussiana.png Licenza: GNU Free Documentation License Autori:: Alfio, Frack,
Tomi
File:Standard deviation illustration.gif Fonte: http://it.wikipedia.org/w/index.php?title=File:Standard_deviation_illustration.gif Licenza: GNU Free Documentation License Autori::
Forlornturtle
File:Moda.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Moda.jpg Licenza: Public domain Autori:: Settenoteinnero
File:Normal distribution pdf.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Normal_distribution_pdf.png Licenza: GNU General Public License Autori:: Ardonik, Gerbrant,
Grendelkhan, Inductiveload, Juiced lemon, MarkSweep, Wikiwide, 10 Modifiche anonime
File:Normal distribution cdf.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Normal_distribution_cdf.png Licenza: GNU General Public License Autori:: Gerbrant, Inductiveload,
Juiced lemon, MarkSweep, Waldir
Immagine:Grafico v.c.Gaussiana.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Grafico_v.c.Gaussiana.png Licenza: GNU Free Documentation License Autori:: Alfio, Frack, Tomi
File:student_t_pdf.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Student_t_pdf.svg Licenza: Creative Commons Attribution 3.0 Autori:: Skbkekas
File:student_t_cdf.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Student_t_cdf.svg Licenza: Creative Commons Attribution 3.0 Autori:: Skbkekas
File:chi-square distributionPDF.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Chi-square_distributionPDF.png Licenza: Public Domain Autori:: EugeneZelenko, It Is Me Here,
PAR, WikipediaMaster
File:chi-square distributionCDF.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Chi-square_distributionCDF.png Licenza: Public Domain Autori:: EugeneZelenko, PAR,
WikipediaMaster
Image:F_distributionPDF.png Fonte: http://it.wikipedia.org/w/index.php?title=File:F_distributionPDF.png Licenza: GNU Free Documentation License Autori:: en:User:Pdbailey
Image:F_distributionCDF.png Fonte: http://it.wikipedia.org/w/index.php?title=File:F_distributionCDF.png Licenza: GNU Free Documentation License Autori:: en:User:Pdbailey
File:Paradosso di Monty Hall.gif Fonte: http://it.wikipedia.org/w/index.php?title=File:Paradosso_di_Monty_Hall.gif Licenza: Public domain Autori:: Iraiscoming223
File:Monty open door.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Monty_open_door.svg Licenza: Public Domain Autori:: Cepheus
File:Monty open door chances.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Monty_open_door_chances.svg Licenza: Public Domain Autori:: Cepheus
File:Birthday Paradox.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Birthday_Paradox.svg Licenza: Creative Commons Attribution-Sharealike 3.0 Autori:: Rajkiran g
File:Blackjack game example.JPG Fonte: http://it.wikipedia.org/w/index.php?title=File:Blackjack_game_example.JPG Licenza: GNU Free Documentation License Autori:: Dice yo11, Roke,
Tintazul, Yonatanh, 9 Modifiche anonime
File:DavidSklansky1979.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:DavidSklansky1979.jpg Licenza: sconosciuto Autori:: Dead man’s hand, Deerstop
File:Doyle Brunson.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Doyle_Brunson.jpg Licenza: Creative Commons Attribution-Sharealike 2.0 Autori:: Photos by flipchip /
LasVegasVegas.com
File:Phil Hellmuth 2006.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Phil_Hellmuth_2006.jpg Licenza: Creative Commons Attribution-Sharealike 2.0 Autori:: Photos by flipchip /
LasVegasVegas.com
Immagine:Wikibooks-logo.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Wikibooks-logo.svg Licenza: logo Autori:: User:Bastique, User:Ramac et al.
Immagine:Wikiquote-logo.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Wikiquote-logo.svg Licenza: Public Domain Autori:: -xfi-, Dbc334, Doodledoo, Elian, Guillom, Jeffq,
Krinkle, Maderibeyza, Majorly, Nishkid64, RedCoat, Rei-artur, Rocket000, 11 Modifiche anonime
File:Roulette wheel.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Roulette_wheel.jpg Licenza: Creative Commons Attribution 2.0 Autori:: Toni Lozano
File:Roulette frz.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Roulette_frz.png Licenza: Public Domain Autori:: Bukk, Darsie, Denniss, Gregors, Hautala, Jed, Mattes, Medvedev,
Pumbaa80, 1 Modifiche anonime
File:Roulette wheel it.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Roulette_wheel_it.png Licenza: sconosciuto Autori:: Kranjo
File:Integral Uprightness.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Integral_Uprightness.svg Licenza: Creative Commons Zero Autori:: User:WhiteTimberwolf
Immagine:Rayleigh-Taylor instability.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Rayleigh-Taylor_instability.jpg Licenza: Public Domain Autori:: Original uploader was
SeanAhern at en.wikipedia
Immagine:Monte carlo method.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Monte_carlo_method.svg Licenza: Public Domain Autori:: --pbroks13talk? Original uploader was
Pbroks13 at en.wikipedia
File:Monte-Carlo method pi.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Monte-Carlo_method_pi.svg Licenza: Public Domain Autori:: Ramac
File:Errore montecarlo calcolo pi greco.PNG Fonte: http://it.wikipedia.org/w/index.php?title=File:Errore_montecarlo_calcolo_pi_greco.PNG Licenza: Public Domain Autori:: Hellis
File:Montecarlo.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Montecarlo.svg Licenza: Creative Commons Attribution-Sharealike 2.5 Autori:: Avron, Dake, Ramac, 1 Modifiche
anonime
Immagine:Wikisource-logo.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Wikisource-logo.svg Licenza: logo Autori:: Guillom, Jarekt, MichaelMaggs, NielsF, Rei-artur, Rocket000
Immagine:Wikiversity-logo-It.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Wikiversity-logo-It.svg Licenza: sconosciuto Autori:: Immagine:Boite a moustaches.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Boite_a_moustaches.png Licenza: Public Domain Autori:: Original uploader was HB at fr.wikipedia
File:Histogram example.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Histogram_example.svg Licenza: Public Domain Autori:: Jkv
210
Licenza
Licenza
Creative Commons Attribution-Share Alike 3.0 Unported
//creativecommons.org/licenses/by-sa/3.0/
211