PR08A81L1TA' A P3DAL1 PDF generato attraverso il toolkit opensource ''mwlib''. Per maggiori informazioni, vedi [[http://code.pediapress.com/ http://code.pediapress.com/]]. PDF generated at: Mon, 17 Dec 2012 06:23:07 UTC Indice Voci PR08A81L1TA' di Base 1 Probabilità 1 Spazio campionario 8 Teoria della probabilità 13 Indipendenza stocastica 15 Teorema della probabilità composta 16 Teorema della probabilità assoluta 17 Probabilità condizionata 18 Teorema di Bayes 20 Rapporti agili 24 Distribuzione discreta 24 Distribuzione discreta uniforme 25 Distribuzione di Bernoulli 29 Processo di Bernoulli 30 Distribuzione binomiale 32 Distribuzione geometrica 36 Distribuzione di Poisson 39 Distribuzione di Pascal 44 53 X ... 48 Distribuzione continua 48 Funzione di ripartizione 50 Funzione di densità di probabilità 53 Variabile casuale 55 Variabili dipendenti e indipendenti 60 Valore atteso 61 Varianza 64 Legge della varianza totale 67 Covarianza 68 Deviazione standard 70 Media (statistica) 73 Distribuzione normale 78 Funzione di ripartizione della variabile casuale normale 83 Distribuzione t di Student 85 Distribuzione chi quadrato 91 Distribuzione di Fisher-Snedecor 97 Cima Coppi 101 Disuguaglianza di Čebyšëv 101 Disuguaglianza di Markov 103 Legge dei grandi numeri 103 Teoremi centrali del limite 108 Processo markoviano 113 Pignoni 117 Calcolo combinatorio 117 Coefficiente binomiale 120 Teorema binomiale 122 Coefficiente multinomiale 125 Tappe in linea 127 Problema di Monty Hall 127 Paradosso delle tre carte 136 Paradosso dei due bambini 138 Paradosso del compleanno 141 Blackjack 142 Poker 147 Roulette 152 Hors Catégorie 156 Continuità assoluta 156 Integrale 158 Convoluzione 170 Sigma-algebra 174 Algoritmo di Metropolis-Hastings 178 Metodo Monte Carlo 179 Defaticamento 187 Statistica 187 Inferenza statistica 192 Campionamento statistico 194 Box-plot 196 Istogramma 197 Quantile 198 Quartile 200 Indicatore statistico 200 Indice di posizione 203 Intervallo di confidenza 203 Ipotesi nulla 204 Test di verifica d'ipotesi 204 Note Fonti e autori delle voci 207 Fonti, licenze e autori delle immagini 210 Licenze della voce Licenza 211 1 PR08A81L1TA' di Base Probabilità Il concetto di probabilità, utilizzato a partire dal '600, è diventato con il passare del tempo la base di diverse discipline scientifiche rimanendo tuttavia non univoco. In particolare su di esso si basa una branca della statistica (la statistica inferenziale), cui fanno ricorso numerose scienze sia naturali che sociali. Cenni storici I primi studi che portarono successivamente a concetti legati alla probabilità possono essere trovati a metà del XVI secolo in Liber de ludo aleæ di Girolamo Cardano (scritto nel 1526, ma pubblicato solo un secolo e mezzo dopo, nel 1663) e in Sulla scoperta dei dadi di Galileo Galilei (pubblicato nel 1656). In particolare, Galileo spiegò come mai, lanciando tre dadi, la probabilità di uscita delle somme 10 e 11 sia più probabile dell'uscita del 9 e del 12, nonostante entrambi i risultati si ottengano da un uguale numero di combinazioni.[1] Alcuni dadi a sei facce. Il problema della ripartizione della posta in gioco nel caso che un gioco d'azzardo debba essere interrotto, venne affrontato da Luca Pacioli, noto anche come Fra Luca dal Borgo, nella sua Summa de arithmetica, geometria, proportioni et proportionalita (pubblicata nel 1494) e successivamente da Tartaglia, per poi essere risolto da Pascal e Fermat. La nascita del concetto moderno di probabilità viene attribuita a Blaise Pascal (1623-1662) e Pierre de Fermat (1601-1665). Il Cavalier de Méré (un accanito giocatore passato alla storia per questo) aveva calcolato che ottenere almeno un 6 in 4 lanci di un dado non truccato era equivalente ad ottenere almeno un doppio 6 in 24 lanci, sempre di un dado non truccato. Tuttavia, giocando secondo tale convinzione, invece di vincere perdeva e scrisse a Pascal lamentando che la matematica falliva di fronte all'evidenza empirica.[2] Da ciò scaturì una corrispondenza tra Pascal e Fermat in cui iniziò a delinearsi il concetto di probabilità nell'accezione frequentista. Pascal annunciò nel 1654 all'Accademia di Parigi che stava lavorando sul problema della ripartizione della messa in gioco. E in una lettera del 29 luglio dello stesso anno a Fermat propose la soluzione del problema, affrontato con il metodo per ricorrenza, mentre Fermat utilizzava metodi basati sulle combinazioni. Nel 1657 Christiaan Huygens (1629-1695) scrisse un Libellus de ratiociniis in ludo aleæ,[3], il primo trattato sul calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro Pierre de Montmort (1678-1719), che scrisse nel 1708 un Essai d'analyse sur le jeux de hasard, ma anche Jakob Bernoulli e Abraham de Moivre. Nel 1713 viene pubblicato postumo Ars conjectandi di Jakob Bernoulli, dove veniva dimostrato il teorema che porta il suo nome, noto anche come legge dei grandi numeri. Successivamente, de Moivre pervenne ad una prima formulazione, poi generalizzata da Pierre Simon Laplace (1749-1827), del Teorema centrale del limite. La teoria delle probabilità raggiunse così basi matematicamente solide e, con esse, il rango di nuova disciplina. In essa esercita un ruolo centrale il rapporto tra casi favorevoli e casi possibili e la probabilità è un numero intrinsecamente legato ad un evento. Negli anni centrali del XX secolo, tuttavia, prima Bruno de Finetti e poi Leonard Jimmie Savage hanno elaborato una concezione soggettiva della probabilità, secondo cui essa è il grado di Probabilità fiducia che una persona ha nel verificarsi dell'evento. Nello stesso periodo, Andrey Nikolaevich Kolmogorov ha dato inizio alla moderna teoria assiomatica (Grundbegriffe der Wahrscheinlichkeitsrechnung, 1933), ispirandosi alla teoria della misura. Si è così affermata una teoria della probabilità puramente matematica, che generalizza il patrimonio matematico comune alle diverse impostazioni. Definizioni In probabilità si considera un fenomeno osservabile esclusivamente dal punto di vista della possibilità o meno del suo verificarsi, prescindendo dalla sua natura. Tra due estremi, detti evento certo (ad esempio: lanciando un dado si ottiene un numero compreso tra 1 e 6) ed evento impossibile (ottenere 1 come somma dal lancio di due dadi), si collocano eventi più o meno probabili (aleatori). Si usa il linguaggio della teoria degli insiemi: un insieme non vuoto Ω ha come elementi tutti i risultati possibili di un esperimento; l'evento che risulta verificato da un unico risultato (un unico elemento di Ω) viene detto evento elementare; altri eventi sono sottoinsiemi di Ω costituiti da più risultati.[4] Gli eventi vengono normalmente indicati con lettere maiuscole. Dati due eventi A e B, si indica con A∪B la loro unione, ovvero l'evento costituito dal verificarsi dell'evento A oppure dell'evento B. Si indica con A∩B la loro intersezione, ovvero l'evento costituito dal verificarsi sia dell'evento A che dell'evento B.[5] Se A∩B = ∅ i due eventi A e B vengono detti incompatibili (non possono verificarsi simultaneamente). Il complemento di un evento A rispetto a Ω, Ω\A, è detto negazione di A e indica il suo non verificarsi (ovvero il verificarsi dell'evento complementare). Definizione classica Secondo la prima definizione di probabilità, per questo detta classica, la probabilità di un evento è il rapporto tra il numero dei casi favorevoli all'evento e il numero dei casi possibili, purché questi ultimi siano tutti equiprobabili. Questa definizione è spesso attribuita a Pierre Simon Laplace e quindi anche identificata definizione classica di Laplace. Indicando con Ω l'insieme di casi possibili e con |Ω|=n la sua cardinalità, con A un evento e con nA il numero dei casi favorevoli ad A (ad esempio, nel lancio di un dado Ω={1,2,3,4,5,6}, n = 6, A = "numero pari", nA = 3), la probabilità di A, indicata con P(A), è pari a: Dalla definizione seguono tre regole: 1. la probabilità di un evento aleatorio è un numero compreso tra 0 e 1; 2. la probabilità dell'evento certo è pari a 1; se A = "numero compreso tra 1 e 6", nA = 6 e nA/n = 1; 3. la probabilità del verificarsi di uno di due eventi incompatibili, ovvero di due eventi che non possono verificarsi simultaneamente, è pari alla somma delle probabilità dei due eventi; se A = "numero pari", con P(A) = 1/2, e B= "esce il 3", con P(B) = 1/6, la probabilità che tirando un dado si ottenga un numero pari oppure un 3 è: La definizione classica consente di calcolare effettivamente la probabilità in molte situazioni. Inoltre, è una definizione operativa e fornisce quindi un metodo per il calcolo. Presenta tuttavia diversi aspetti negativi non irrilevanti: • dal punto di vista formale, è una definizione circolare: richiede che i casi possiedano tutti la medesima probabilità, che è però ciò che si vuole definire; • non definisce la probabilità in caso di eventi non equiprobabili; • presuppone un numero finito di risultati possibili e di conseguenza non è utilizzabile nel continuo. 2 Probabilità Definizione frequentista Per superare tali difficoltà, Richard von Mises (1883-1953) propose di definire la probabilità di un evento come il limite cui tende la frequenza relativa dell'evento al crescere del numero degli esperimenti: La definizione frequentista si applica ad esperimenti casuali i cui eventi elementari non siano ritenuti ugualmente possibili, ma assume che l'esperimento sia ripetibile più volte, idealmente infinite, sotto le stesse condizioni. Anche tale definizione consente di calcolare la probabilità di molti eventi e da essa si ricavano le stesse tre regole che seguono dalla definizione classica. È sufficiente, infatti, sostituire il rapporto tra numero dei casi favorevoli nA e numero dei casi possibili n con il limite del rapporto per n tendente all'infinito. Tuttavia: • il "limite" delle frequenze relative non è paragonabile all'analogo concetto matematico; ad esempio, data una successione {an}, si dice che a è il suo limite se per ogni ε > 0 esiste un numero naturale N tale che |an - a| < ε per ogni n > N, e, comunque dato ε, è sempre possibile calcolare N; nella definizione frequentista, invece, N non è sempre calcolabile; • non tutti gli esperimenti sono ripetibili; ad esempio, ha sicuramente senso chiedersi quale sia la probabilità che vi sia vita su Marte o che tra 50 anni il tasso di natalità in Africa diventi la metà di quello attuale, ma in casi simili non è possibile immaginare esperimenti ripetibili all'infinito. Definizione soggettiva De Finetti e Savage[6] hanno proposto una definizione di probabilità applicabile ad esperimenti casuali i cui eventi elementari non siano ritenuti ugualmente possibili e che non siano necessariamente ripetibili più volte sotto le stesse condizioni: la probabilità di un evento è il prezzo che un individuo ritiene equo pagare per ricevere 1 se l'evento si verifica, 0 se l'evento non si verifica. Al fine di rendere concretamente applicabile la definizione, si aggiunge un criterio di coerenza: le probabilità degli eventi devono essere attribuite in modo tale che non sia possibile ottenere una vincita o una perdita certa. In tal modo è possibile ricavare dalla definizione soggettiva le stesse tre regole già viste. 1. P(A) è compresa tra 0 e 1; se infatti fosse negativa si avrebbe un guadagno certo, se fosse maggiore di 1 si avrebbe una perdita certa; 2. P(Ω) = 1; se l'evento è certo, si riceverà sicuramente 1, ma se fosse P(Ω) < 1 si avrebbe un guadagno certo, pari a 1 - P(Ω), se invece fosse P(Ω) > 1 si avrebbe una perdita certa; 3. se A∩B = ∅, P(A∪B) = P(A)+P(B). Si osserva preliminarmente che se gli n eventi A1, A2, ..., An sono incompatibili (non possono presentarsi insieme) e necessari (uno di loro deve necessariamente verificarsi), la somma delle probabilità P(Ai), con i che va da 1 a n, è uguale a 1; infatti, se si paga P(Ai) per ciascun evento, se la somma fosse inferiore a 1 si avrebbe un guadagno certo, se fosse superiore si avrebbe una perdita certa. Si considerano poi gli eventi incompatibili A e B e l'evento complemento della loro unione; i tre eventi sono incompatibili e necessari e si ha: Sono però incompatibili anche l'unione di A e B ed il suo complemento: Dalle due uguaglianze segue: se , allora La definizione soggettiva consente quindi di calcolare la probabilità di eventi anche quando gli eventi elementari non sono equiprobabili e quando l'esperimento non può essere ripetuto. Rimane fondata, tuttavia, sull'opinione di singoli individui, che potrebbero presentare diverse propensioni al rischio. .Basta pensare che molti sarebbero disposti a 3 Probabilità 4 giocare 1 euro per vincerne 1000, ma pochi giocherebbero un milione di euro per vincerne un miliardo..... Definizione assiomatica L'impostazione assiomatica della probabilità venne proposta da Andrey Nikolaevich Kolmogorov nel 1933 in Grundbegriffe der Wahrscheinlichkeitsrechnung (Concetti fondamentali del calcolo delle probabilità), sviluppando la ricerca che era ormai cristallizzata sul dibattito fra quanti consideravano la probabilità come limiti di frequenze relative (cfr. impostazione frequentista) e quanti cercavano un fondamento logico della stessa. Va notato che la definizione assiomatica non è una definizione operativa e non fornisce indicazioni su come calcolare la probabilità. È quindi una definizione utilizzabile sia nell'ambito di un approccio oggettivista che nell'ambito di un approccio soggettivista. Il nome deriva dal procedimento per "assiomatizzazione" quindi nell'individuare i concetti primitivi, da questi nell'individuare i postulati da cui poi si passava a definire i teoremi. L'impostazione assiomatica muove dal concetto di σ-algebra, o classe additiva. Dato un qualsiasi esperimento casuale, i suoi possibili risultati costituiscono gli elementi di un insieme non vuoto Ω, detto spazio campionario, e ciascun evento è un sottoinsieme di Ω. La probabilità viene vista, in prima approssimazione, come una misura, cioè come una funzione che associa a ciascun sottoinsieme di Ω un numero reale non negativo tale che la somma delle probabilità di tutti gli eventi sia pari a 1. Se Ω ha cardinalità finita n o infinita numerabile, l'insieme di tutti i suoi sottoinsiemi, detto insieme delle parti, ha, rispettivamente, cardinalità 2n o la cardinalità del continuo. Tuttavia, se Ω ha la cardinalità del continuo, il suo insieme delle parti ha cardinalità superiore e risulta "troppo grande" perché si possa definire su di esso una misura. Si considerano pertanto i soli sottoinsiemi di Ω che costituiscono una classe additiva , ovvero un insieme non vuoto tale che • se un evento A appartiene ad , vi appartiene anche il suo complemento: • se un'infinità numerabile di eventi, A1, A2, ... An, ..., appartiene ad , vi appartiene anche l'evento costituito dalla loro unione: Una classe additiva è quindi un sottoinsieme delle insieme delle parti di Ω che risulta chiuso rispetto alle operazioni di complemento e di unione numerabile. Si può aggiungere che una classe additiva è chiusa anche rispetto all'intersezione, finita o numerabile, in quanto per le leggi di De Morgan si ha: (il secondo membro dell'uguaglianza appartiene alla classe in quanto complemento di una unione numerabile dei complementi di insiemi che vi appartengono). Si pongono i seguenti assiomi (che includono le tre regole ricavabili dalle definizioni precedenti): 1. 2. 3. 4. Gli eventi sono sottoinsiemi di uno spazio Ω e formano una classe additiva . Ad ogni evento è assegnato un numero reale non negativo P(A), detto probabilità di A. P(Ω)=1, ovvero la probabilità dell'evento certo è pari ad 1. Se l'intersezione tra due eventi A e B è vuota, allora P(A∪B)=P(A)+P(B). 5. Se An è una successione decrescente di eventi e al tendere di n all'infinito l'intersezione degli An tende all'insieme vuoto, allora P(An) tende a zero:[7] Probabilità La funzione P(A) viene detta funzione di probabilità, o anche distribuzione di probabilità. La terna 5 viene detta spazio di probabilità. Dagli assiomi si ricavano immediatamente alcune proprietà elementari della probabilità: • Se P(A) è la probabilità di un evento A, la probabilità dell'evento complementare è 1-P(A). Infatti, poiché l'intersezione di A e del suo complemento è vuota e la loro unione è Ω, dagli assiomi 3 e 4 si ricava: • La probabilità dell'evento impossibile è pari a zero. Infatti l'insieme vuoto è il complemento di Ω e si ha: • La probabilità di un evento è minore o uguale a 1. Infatti, dovendo la probabilità essere non negativa per il secondo assioma, si ha: • Se un evento A è incluso in un evento B, allora la sua probabilità è minore o uguale a quella di B. Infatti, se B include A può essere espresso come unione di insiemi disgiunti e si ha: Teoremi di base Dai suddetti assiomi derivano alcuni teoremi e concetti fondamentali. Il teorema della probabilità totale consente di calcolare la probabilità dell'unione di due o più eventi, ovvero la probabilità che si verifichi almeno uno di essi. Essa è la somma delle probabilità dei singoli eventi se sono a due a due incompatibili; in caso contrario, alla somma va sottratta la somma delle probabilità delle intersezioni due a due, poi aggiunta la somma delle probabilità delle intersezioni a tre a tre e così via. Ad esempio, nel caso di tre eventi: Si dice probabilità condizionata di A dato B, e si scrive P(A|B), la probabilità che l'evento A ha di verificarsi quando si sa che B si è verificato: Attraverso tale concetto si perviene al teorema della probabilità composta, che consente di calcolare la probabilità dell'intersezione di due o più eventi, ovvero la probabilità che essi si verifichino tutti. Nel caso di due eventi (che può essere generalizzato), si ha: Nel caso che la probabilità di A dato B, P(A|B), sia uguale a P(A), i due eventi vengono definiti indipendenti stocasticamente (o probabilisticamente) e dalla stessa definizione segue una diversa formulazione della probabilità composta, caso particolare del precedente: P(A∩B)=P(A)P(B). Il teorema di Bayes consente di calcolare la probabilità a posteriori di un evento Ai, quando si sappia che si è verificato un evento E. Se Ai appartiene ad un insieme finito o numerabile di eventi a due a due incompatibili, e se E si verifica allora si verifica necessariamente uno degli eventi di tale insieme (ed uno solo, dato che sono incompatibili), allora, conoscendo le probabilità a priori degli eventi Ai e le probabilità condizionate P(E|Ai) e sapendo che si è verificato E, si può calcolare la probabilità a posteriori di un particolare Ai: Più discorsivamente: se si conoscono sia le probabilità a priori delle diverse possibili "cause" di E (ma non si sa per effetto di quale di esse E si è verificato), sia le probabilità condizionate di E data ciascuna delle cause, è possibile calcolare la probabilità che E si sia verificato per effetto di una particolare causa. Probabilità Difficoltà nell'utilizzo delle probabilità Quante insidie vi siano nei ragionamenti sulle probabilità - al di là delle difficoltà nella comprensione di cosa possa essere la probabilità - viene messo in evidenza da alcuni cosiddetti paradossi, dove in realtà si tratta di domande con risposte apparentemente illogiche: • nel paradosso delle tre carte l'errore consiste solitamente nel non avere identificato correttamente quali siano gli eventi: i lati delle carte e non le carte stesse • nel paradosso dei due bambini l'errore consiste solitamente nel non distinguere eventi diversi, ovvero nel considerare un unico evento quelli che in realtà sono due • nel problema di Monty Hall la difficoltà consiste anzitutto nell'accettare l'idea che una nuova informazione può modificare le probabilità di eventi, senza che il mondo reale cambi, l'altro errore consiste nel non analizzare completamente e dunque valutare correttamente la nuova informazione acquisita. Una ulteriore fonte di confusione può essere data dal presupporre (sbagliando) che il fatto che un evento abbia probabilità 1 implica che esso avvenga sempre (invece che quasi certamente). Probabilismo ontico Il probabilismo ontico è una teoria ontologica in base alla quale ciò che è necessario rappresenta il massimo delle probabilità e ciò che è casuale il minimo delle probabilità. L'alternanza dialettica necessità/caso si dà quindi in una scala astratta, ma matematicamente calcolabile per approssimazione caso per caso con adeguati algoritmi, dove la casualità è l'estrema improbabilità e la necessità l'estrema probabilità. Note [1] Il 9 si ottiene con le sei combinazioni (1,2,6), (1,3,5), (1,4,4), (2,2,5), (2,3,4), (3,3,3), il 10 con le sei combinazioni (1,3,6), (1,4,5), (2,2,6), (2,3,5), (2,4,4), (3,3,4), l'11 con (1,4,6), (2,3,6), (2,4,5), (1,5,5), (3,3,5), (3,3,4) e il 12 con (1,5,6), (2,4,6), (2,5,5), (3,4,5), (3,3,6), (4,4,4). Tuttavia, mentre una combinazione di tre numeri uguali può presentarsi in un solo modo, una con due numeri uguali può presentarsi in tre modi diversi, una con tre numeri diversi in sei modi diversi. Si può quindi ottenere il 10 e l'11 in 27 modi (6+6+3+6+3+3), il 9 e il 12 in 25 modi (6+6+3+3+6+1). [2] Secondo il Cavaliere, essendo 1/6 la probabilità del 6 con un dado, in quattro lanci la probabilità sarebbe 4 × 1/6 = 2/3; la probabilità del doppio 6 in due lanci è invece 1/36 e, per arrivare a 2/3, occorrono 24 lanci: 24 × 1/36 = 2/3. In realtà la probabilità di ottenere almeno un 6 si calcola meglio a partire dall'evento complementare, "nessun 6 in quattro lanci", che è (5/6)4, e sottraendo questa da 1, ottenendo il 51,8%; nello stesso modo si calcola che la probabilità di almeno un doppio 6 in 24 lanci è 1 – (35/36)24 = 49%. [3] La ristampa della traduzione inglese è disponibile in http:/ / www. stat. ucla. edu/ history/ huygens. pdf. [4] Ad esempio, nel lancio di un dado l'insieme Ω è costituito dai sei risultati {1,2,3,4,5,6}; l'evento "esce il 3" è rappresentato dall'insieme {3}, l'evento "esce un numero pari" è rappresentato dall'insieme {2,4,6}. [5] Ad esempio, restando al lancio di un dado, se A = {2} e B = {4,6}, l'evento A∪B è {2,4,6}, ovvero "esce un numero pari". Se invece A = "esce un numero pari" e B = "esce un numero minore o uguale a 3", A∩B = {2}. [6] L'impostazione soggettiva era stata anticipata da Ramsey nel 1926. [7] Una successione di insiemi è detta decrescente se ciascun insieme include il successivo. V. Limite insiemistico. 6 Probabilità Bibliografia • • • • Remo Cacciafesta, Lezioni di calcolo delle probabilità, Veschi, Roma, 1983 Giorgio Dall'Aglio, Calcolo delle probabilità, Zanichelli, Bologna, 2003 Domenico Piccolo, Statistica, Il Mulino, Bologna, 1998, Parte Seconda, Cap. VIII, pp. 215-291 Devlin Keith, La lettera di Pascal. Storia dell'equazione che ha fondato la teoria della probabilità, Rizzoli, 2008 Voci correlate • • • • • • • • • Teoria della probabilità Probabilismo Evento Teorema di Cox Campionamento statistico Logica della diagnosi clinica Legge dei grandi numeri Kolmogorov. Bruno de Finetti • • • • • • Meccanica quantistica Indeterminismo Statistica Statistica inferenziale Storia della statistica Calcolo combinatorio Collegamenti esterni • (EN) Probability and Statistics EBook (http://wiki.stat.ucla.edu/socr/index.php/EBook) • (FR) Journal sur l'histoire des probabilités et des statistiques (http://www.jehps.net/) et site associé (articles, bibliographie, biographies) 7 Spazio campionario 8 Spazio campionario Nel calcolo delle probabilità lo spazio campionario o insieme universo (generalmente indicato dalle lettere S, Ω o U) è l'insieme dei possibili risultati di un esperimento casuale. Ad esempio, nel lancio di un dado lo spazio campionario è l'insieme {1,2,3,4,5,6}, nel lancio di una moneta può essere l'insieme {testa, croce}, e così via. Lo spazio campionario può anche avere infiniti elementi: se, ad esempio, siamo interessati allo studio della caduta di una pallina su un pavimento, lo spazio campionario corrisponderà all'insieme dei punti del pavimento, considerati tutti come possibili punti di impatto della pallina. Definizioni formali Eventi Dato un esperimento casuale è detto evento elementare Si dice evento un qualsiasi sottoinsieme uno dei possibili esiti dell’esperimento stesso. dello spazio campionario . Dunque un evento non è altro che un raggruppamento di uno o più eventi elementari. L'evento corrispondente all'intero spazio campionario (costituito da tutti gli eventi elementari) è detto evento certo. L'evento corrispondente all'insieme vuoto (costituito da nessun evento elementare) è detto evento impossibile. Dato uno spazio campionario associato a un esperimento, può darsi che l'analisi da condurre non coinvolga tutti i possibili eventi ma solo una parte di essi. Gli eventi che hanno un ruolo in una specifica analisi vengono detti eventi di interesse. Sigma-algebra Sia uno spazio arbitrario purché non vuoto. Una famiglia sottoinsiemi ) è detta di eventi di -algebra (sigma-algebra) se contiene (cioè una qualsiasi collezione di ed è chiusa rispetto alle operazioni insiemistiche di unione numerabile e complementazione, ovvero se soddisfa le seguenti tre proprietà: 1. 2. 3. ovvero: (1) l'evento certo è un evento (come dire: "succede qualcosa"); (2) la negazione di un qualsiasi evento è essa stessa un evento. (3) qualsiasi unione di eventi è un evento (per esempio l'evento "si verifica E o F" è l'unione degli eventi "si verifica E" e "si verifica F"). La proprietà 1. è del tutto equivalente a: 1'. La proprietà 3. è del tutto equivalente a: 3'. cioè una sigma-algebra è anche chiusa rispetto a intersezioni numerabili. La sigma-algebra è il metodo più appropriato per descrivere un insieme di eventi dato un insieme di eventi elementari. Essa è una generalizzazione del concetto di algebra di insiemi, che richiede solo la stabilità per unioni finite. Spazio campionario 9 Tuttavia se si utilizzasse il concetto di algebra di insiemi per descrivere il concetto di evento si incorrerebbe nello spiacevole inconveniente di non considerare eventi dei fenomeni quali "prima o poi piove". Infatti questo evento è traducibile in linguaggio insiemistico come "piove oggi" oppure "piove domani" oppure " piove dopodomani" oppure ...; ovvero l'evento è descritto dall'unione di infiniti eventi, definizione di algebra potrebbe essere , quindi , da cui deriva che per la non sarebbe un evento che viene considerato nel nostro modello, il che sembra piuttosto deludente. Per ovviare a ciò si introduce la nozione di sigma-algebra sopra esposta. Dato uno spazio arbitrario e una famiglia di suoi sottoinsiemi è possibile, sempre e in vari modi, estendere la famiglia sino a renderla una sigma-algebra. La più piccola sigma-algebra contenente la famiglia con viene indicata e detta sigma-algebra generata dalla famiglia. Le sigma-algebre sono un concetto ampiamente trattato in teoria della misura. Spazio campionario L’insieme degli eventi elementari, visti come punti, viene detto spazio campionario. Una sigma-algebra costruita su di esso viene detta spazio degli eventi. Osservazioni Nell'insieme delle parti di gli elementi sono i sottoinsiemi di un sottoinsieme dell’insieme Un evento delle parti di è un sottoinsieme di di sottoinsiemi di è . e non un suo elemento. Quindi un evento, in quanto insieme, non appartiene allo spazio campionario (e la scrittura converso un evento elementare . Quindi una famiglia è priva di significato) ma è incluso nello spazio campionario. Di , in quanto punto, appartiene allo spazio campionario e l'evento , insieme costituito da un singolo punto (e perciò detto singoletto), è incluso nello spazio campionario. Se la cardinalità di è finita allora la -algebra può coincidere con l’insieme delle parti ma non è detto che sia necessario prendere una famiglia di eventi così grande. Ovviamente nulla vieta di prendere come spazio degli eventi proprio l’insieme delle parti. Questo perché nel caso di cardinalità finita è sempre possibile prendere come -algebra l’intero insieme delle parti senza rischiare di incappare in eventi ai quali non è possibile attribuire una probabilità . Se invece la cardinalità di è infinita non è detto che sia possibile definire . In tale caso può darsi che scegliere l’insieme delle parti come sigma-algebra non sia una scelta felice: in virtù della terza proprietà delle sigma-algebre, quando passiamo alla probabilità vengono coinvolte delle serie che non è detto convergano. In generale si cerca sempre di scegliere una sigma-algebra che sia piccola: più piccola è meno problemi crea. Il fatto che sia piccola e non coincidente con l’intero insieme delle parti non vuol dire che alcuni eventi elementari restino esclusi infatti, per definizione di sigma-algebra, possiamo dire che . In altri termini le sigma-algebre definite su sono una copertura di . Spazio campionario 10 Tipi di spazio campionario La scelta dello spazio campionario per un determinato fenomeno aleatorio deve in qualche modo equilibrare la necessità di essere fedele alla realtà fisica esaminata con la convenienza matematica (vedi osservazioni). In pratica, la maggior parte degli spazi campionari rientra nelle seguenti tipologie: Finito I più semplici esperimenti aleatori consistono nel lancio di una moneta o di un dado, o nell'estrazione di una pallina da un'urna. In ogni caso lo spazio campionario sarà un insieme costituito da un numero finito di eventi elementari. In genere, ma non necessariamente, essi saranno rappresentati dai primi n numeri interi: piuttosto che . Numerabile Molti importanti modelli probabilistici, come ad esempio quello poissoniano utilizzato per contare il numero di accadimenti che si verificano in un intervallo di tempo fissato, si basano su uno spazio campionario numerabile e coincidente, quindi con tutto o con . Continuo Solitamente il modello continuo per eccellenza è la retta reale, come nel caso degli errori di misura nelle osservazioni scientifiche il cui studio sistematico è stato avviato da Karl Friedrich Gauss nel 1809. Altri modelli, utili per rappresentare i tempi di vita di componenti elettronici, hanno come modello la semiretta reale positiva. Vettoriale finito Spesso un esperimento è costituito da una sequenza finita di altri esperimenti come, ad esempio, il lancio di un dado ripetuto n volte. In tale caso, se è lo spazio campionario del singolo lancio, lo spazio campionario complessivo sarà dato dal prodotto cartesiano dei singoli spazi: . Lo spazio campionario del singolo esperimento potrà essere sia finito che numerabile che continuo. Vettoriale numerabile Come nel caso vettoriale finito con l'unica differenza che la sequenza dei singoli esperimenti non è finita ma numerabile dunque: . Tale modello compare, ad esempio, nelle analisi di qualità dei pezzi uscenti da una linea di produzione con o nella passeggiata aleatoria (random walk) con . Funzionale In alcuni esperimenti aleatori della fisica, gli esiti dell'esperimento sono i percorsi o le traiettorie di una particella in un certo intervallo di tempo. Quindi ogni esito, in questo caso, è una funzione. Tale modello emerge insistentemente nei processi stocastici. Spazio campionario 11 Esempi Un foglio in pezzi Prendiamo un qualsiasi foglio: nella sua interezza rappresenterà il nostro spazio campionario. Le singole particelle del foglio corrisponderanno ai punti dello spazio campionario ovvero agli eventi elementari. Se ora strappiamo in pezzi il foglio, ognuno dei pezzi rappresenterà un evento che, in quanto aggregato di particelle, sarà un sottoinsieme del foglio originale e, in quanto pezzo, sarà un elemento dell'insieme dei pezzi del foglio (l'insieme delle parti). Osserviamo che un foglio strappato in pezzi costituisce una partizione del foglio originale. I pezzi in cui abbiamo strappato il foglio non esauriscono tutto l'insieme delle parti ma ne costituiscono solo una sua famiglia. Tale famiglia può essere estesa ad una sigma-algebra aggiungendo ad essa anche tutte le possibili composizioni ottenibili con le operazioni insiemistiche di unione numerabile, intersezione numerabile e complementazione. Ad esempio dovremo aggiungere alla famiglia l'unione di tutti i pezzi (l'intero foglio). Accanto ad ogni pezzo della famiglia dovremo aggiungere il suo complementare (ovvero l'unione di tutti gli altri pezzi). E via dicendo. Notiamo che questo procedimento ci conduce ad una sigma-algebra ma non all'insieme delle parti. Per arrivare all'insieme delle parti dovremmo ripetere il procedimento anche per tutti gli altri modi in cui possiamo strappare il foglio originale. Lancio di un dado equilibrato Consideriamo un esperimento che consiste nel lanciare un comune dado (un cubo le cui facce sono numerate da 1 a 6) su una superficie piana dotata di attrito e delimitata da pareti atte a contenere il movimento del dado (ovvero una scatola!) e supponiamo che il dado sia bilanciato (ovvero che la sua distribuzione di massa sia uniforme e non privilegi una faccia rispetto alle altre). Gli esiti di tale esperimento sono misurabili. Infatti, spesa la sua energia, il dado si fermerà inesorabilmente poggiando sulla superficie una delle sue facce e mostrando, quindi, all'esperimentatore la faccia opposta a quella di appoggio. Il numero impresso sulla faccia esposta potrà essere utilizzato per rappresentare l'esito dell'esperimento che, complessivamente, avrà sei possibili esiti distinti (tanti quanti le facce del dado). Codificheremo tali esiti con i primi sei numeri interi. Allora gli eventi elementari saranno i primi sei numeri interi e lo spazio campionario associato a questo esperimento sarà che ha cardinalità evidentemente finita. Poiché ogni evento è un sottoinsieme dello spazio campionario ovvero un elemento dell'insieme delle parti di sono possibili eventi tra i quali, ovviamente, l'insieme vuoto, l'intero coppie, i pari , i sei singoletti, le ci possibili e via dicendo. La scelta della -algebra da usare dipende dagli obiettivi. Se, ad esempio, siamo interessati a calcolare la probabilità che esca un numero pari, gli unici eventi di interesse saranno A="è uscito un pari" e il suo complementare. La più piccola sigma-algebra contenente l'evento A sarà: . Non è l'unica ma, tra tutte le sigma algebre contenenti l'evento A, è la più piccola dunque quella che genera meno lavoro e meno problemi. Spazio campionario 12 Sigma-algebra di Borel su Questo esempio non è intuitivo ma è qui riportato perché celebre, perché riveste un ruolo fondamentale in gran parte della teoria della probabilità e perché nonostante la sua semplicità (è sufficiente investigare su un numero infinito di lanci di una moneta per incappare in una sigma-algebra di Borel) ha messo in crisi la teoria classica della probabilità richiedendone la rivisitazione assiomatica di Kolmogorov. Sia l'intervallo reale unitario aperto a sinistra e chiuso a destra. Sia, inoltre intervalli di , della forma con la famiglia degli . Consideriamo, inoltre, tutte le unioni finite e disgiunte di tali intervalli: . Aggiungiamo infine anche l'insieme vuoto. La famiglia così ottenuta è nota come algebra di Borel. Nonostante tale famiglia sia assai numerosa, ancora non abbiamo a che fare con una sigma-algebra. Ad esempio sono esclusi dalla famiglia i singoletti che, in virtù della proprietà 3', dovrebbero invece essere presenti in quanto ognuno è intersezione numerabile di insiemi della famiglia: A questo punto è facile immagine Emile Borel, colto da sensi di colpa per aver abbandonato il piano astratto e aver tentato di costruire la sua sigma-algebra elemento per elemento, si rifugia in un buio sgabuzzino urlando da dietro la porta: "la sigma-algebra esiste e non è banale!" (ovvero non coincide con l'insieme delle parti di ). Che non coincida con ma non a lo ha già appurato Borel e noi abbiamo appena visto che i singoletti appartengono a . Per scoprire un sottoinsieme di non contenuto in e quindi dare conforto all'ipotesi del disperato Borel bisognerà attendere Giuseppe Vitali. Costruzione di una sigma-algebra Riprendiamo ancora l'esempio del lancio di un dado. Abbiamo già visto che se siamo interessati a valutare la probabilità che esca pari dovremo considerare l'evento A={è uscito pari}. Ma A preso singolarmente non basta. Per completare la nostra partizione basterà aggiungere ad A il suo complementare. Ora è una partizione. Qualcuno potrebbe ribattere: ma anche è una partizione. E anche lo è. Certo. Ma la prima non ci serve a nulla perché non distingue tra pari e dispari mentre la seconda distingue troppo: che ci importa sapere se il dispari uscito è 1 o 3 o 5 ? è la migliore partizione rispetto al problema in esame. Tra l'altro questo, come abbiamo già visto, è uno dei rarissimi casi in cui costruire la sigma-algebra non è reato (o tentato suicidio). Se, per qualche motivo, dobbiamo esaminare tutte e sei le possibili configurazioni allora la partizione che dovremo costruire sarà la più fine possibile: . Una volta assegnato questo spazio campionario, per generare la sua sigma-algebra si considerano tutte le possibili unioni tra i suoi elementi e i loro complementari (ragionamento valido per ogni insieme finito). Ad esempio quindi la sigma-algebra conterrà: Il grosso vantaggio nel lavorare solo con la giusta partizione diventa chiaro in fase di assegnazione di una misura di probabilità. Spazio campionario 13 Bibliografia • P. Halmos (1950): Measure theory, D. van Nostrand and Co. • P. Billingsley (1995): Probability and Measure, John Wiley & Sons • A. F. Karr (1993): Probability, Springer-Verlag Voci correlate • Misura di probabilità • Spazio di probabilità • Variabile casuale Teoria della probabilità La teoria della probabilità è lo studio matematico della probabilità. I matematici si riferiscono alle probabilità come a numeri nell'intervallo da 0 a 1, assegnati ad "eventi" la cui ricorrenza è casuale. Le probabilità sono assegnate ad eventi secondo gli assiomi della probabilità. La probabilità che un evento dato avvenga dato il verificarsi noto di un evento ; il suo valore numerico è condizionale di dato (finché è la probabilità condizionata di è diverso da zero). Se la probabilità è la stessa della probabilità ("non condizionale") di eventi indipendenti. Che questa relazione tra and che è la stessa cosa che dire , allora ed sono detti sia simmetrica, può essere visto più chiaramente osservando . Due concetti cruciali nella teoria della probabilità sono quelli di variabile casuale e di distribuzione probabilistica di una variabile casuale. In altri termini descrivere in termini probabilistici o statistici una fenomeno aleatorio nel tempo, caratterizzabile dunque da una variabile aleatoria, vuol dire descriverlo in termini di densità di distribuzione di probabilità e dei suoi parametri di media o valore atteso e varianza. Una visione astratta della probabilità I matematici ritengono che la teoria della probabilità sia lo studio di uno spazio astratto di probabilità (su cui sono ad esempio definite le variabili casuali o aleatorie), un approccio introdotto da Kolmogorov nel 1930 (anche detto approccio assiomatico). Uno spazio di probabilità è una terna , dove: • è un insieme non vuoto, a volte chiamato spazio campionario, ognuno dei cui membri si può pensare come un potenziale risultato di un esperimento casuale. Per esempio, se 100 votanti devono essere estratti a caso tra tutti i votanti di un insieme e ad essi viene chiesto per chi voteranno, allora l'insieme di tutte le sequenze dei 100 votanti sarebbe lo spazio campionario . • è una sigma-algebra di insiemi di i cui elementi sono chiamati eventi. Per esempio, l'insieme di tutte le sequenze di 100 elettori di cui almeno 60 voteranno per un certo candidato viene identitificato con l'"evento" che almeno 60 dei 100 elettori estratti voteranno in quel dato modo. Dire che F è una sigma-algebra implica necessariamente che il complemento di ogni evento è un evento, e l'unione di ogni sequenza (finita o infinita numerabile) di eventi è un evento. • P è una misura della probabilità in F, cioè una misura tale per cui P(Ω) = 1. È importante notare che P è definita in F e non in Ω. Con Ω numerabile possiamo definire F := insieme di potenza(Ω) che è banalmente una sigma-algebra ed il più grande che si possa creare usando Ω. In uno spazio discreto possiamo quindi omettere F e scrivere solo (Ω, P) per definirlo. Teoria della probabilità Se d'altra parte Ω è non numerabile e si usa F = insieme di potenza(Ω) cadiamo nella difficoltà di definire la nostra misura di probabilità P perché F è 'immenso'. Quindi dobbiamo usare una sigma-algebra F più piccola (per esempio l'algebra di Borel di Ω). Si definisce questo tipo di spazio probabilistico uno spazio probabilistico continuo e ci porta alcuni problemi nella teoria della misura quando proviamo a definire P. Una variabile casuale è una funzione misurabile da Ω nei reali. Per esempio, il numero di elettori che voteranno per un dato candidato nel campione di 100 dell'esempio precedente è una variabile casuale. Se X è una variabile casuale, l'insieme { ω in Ω : X(ω) ≥ 60 } è un "evento", e la notazione P(X ≥ 60) è un'abbreviazione di P({ ω in Ω : X(ω) ≥ 60 }). Per una alternativa algebrica all'approccio di Kolmogorov, vedi algebra delle variabili casuali. Filosofia delle applicazioni della probabilità Alcuni statistici assegneranno delle probabilità solo agli eventi che si pensano essere casuali, in base alle loro frequenze relative, o a sottoinsiemi di popolazione in relazione al tutto; questi sono frequentisti. Altri assegnano probabilità a proposizioni incerte o secondo gradi soggettivi di confidenza nella loro verità, o a livelli logicamente giustificabili di confidenza nella loro verità. Tali persone sono Bayesiani. Un Bayesiano può assegnare una probabilità alla proposizione che c'era vita su Marte un miliardo di anni fa, dal momento che questo è incerto; un frequentista non assegnerebbe una probabilità a tale proposizione, poiché non si tratta di un evento casuale che abbia una frequenza relativa a lungo termine. Voci correlate • • • • • • • • • Probabilità Misura di probabilità Funzione di probabilità Valore atteso Evento Assiomi della probabilità Variabile casuale, distribuzione di probabilità Indipendenza statistica Criterio di Kelly Bibliografia • • • • • • Billingsley Patrick, Probability and measure, 3rd ed., John Wiley & Sons, New York 1995, ISBN 0-471-00710-2. Jeffreys Harold (1939) The Theory of Probability Kolmogorov Andrey N. (1933) Grundbegriffe der Wahrscheinlichkeitrechnung. Laplace, Pierre S. (1812) Theorie Analytique des Probabilités. Nelson Edward (1987) Radically Elementary Probability Theory Yuri A. Rozanov (1995) Probability Theory, Random Processes and Mathematical statistics, Kluwer, ISBN 0-7923-3764-6 14 Teoria della probabilità 15 Altri progetti • Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/ Category:Probability theory Indipendenza stocastica Nell'ambito del calcolo delle probabilità, l'indipendenza stocastica di due eventi A e B si ha quando il verificarsi di uno non modifica la probabilità di verificarsi dell'altro, ovvero quando la probabilità condizionata P(A | B) oppure P(B | A) è pari rispettivamente a P(A) e P(B) P(A | B) = P(A) P(B | A) = P(B) queste due condizioni si possono sintetizzare con la formula P(A ∩ B) = P(A) · P(B). In altre parole, dire che due eventi sono indipendenti tra loro significa dire che il fatto di sapere che uno di essi si è verificato non modifica la valutazione di probabilità sul secondo. Per esempio, il fatto di ottenere "1" quando viene lanciato un dado ed il fatto di ottenere ancora un "1" la seconda volta che il dado viene lanciato, sono indipendenti. Analogamente, quando si afferma che due variabili casuali X e Y definite sullo stesso spazio campionario H sono indipendenti si afferma che conoscere qualcosa riguardo al valore di una di esse non apporta alcuna informazione circa il valore dell'altra. Per esempio, il numero che appare sulla faccia superiore di un dado la prima volta che viene lanciato e il numero che appare la seconda volta sono indipendenti. Formalmente, questo si verifica quando per ogni coppia di eventi B, B' risulta P(X ∈ B ∩ Y ∈ B' ) = P(X ∈ B) · P (Y ∈ B' ) Equivalentemente ciò si verifica se, detta F la funzione di ripartizione della variabile congiunta (X,Y) e fX, fY le due funzioni di ripartizione marginali, allora per ogni x,y vale che F(x,y)=fX(x) · fY(y) Condizioni analoghe si trovano per la funzione di densità di probabilità e la funzione di probabilità, se X è rispettivamente una variabile casuale continua o una variabile casuale discreta: f(x,y)=fX(x)· fY(y) e p(x,y)=pX(x)· pY(y) Generalizzazioni Nell'ambito della teoria della probabilità, la nozione di indipendenza stocastica può essere generalizzata ampiamente. Sia uno spazio di probabilità, e sia una famiglia arbitraria (finita o non finita) di σ-algebre contenute in : . Esse si dicono indipendenti rispetto a di , e per ogni sottoinsieme se, per ogni sottoinsieme finito , accade: . Questa nozione si riduce alla precedente nel caso in cui la famiglia di σ-algebre sia formata da due soli elementi e , dove, dato un insieme misurabile , è la σ-algebra da esso generata: . Questa estensione, ampiamente usata nella teoria dei processi stocastici, trova la sua motivazione nel fatto che l'indipendenza stocastica di una famiglia di σ-algebre, non è in generale equivalente all'indipendenza dei suoi Indipendenza stocastica 16 elementi a due a due. Ad esempio, dati tre insiemi , sapendo che e , e , e sono indipendenti, non se ne che: . Voci correlate • • • • • probabilità probabilità condizionata Mark Kac Hugo Steinhaus Paradosso del compleanno Teorema della probabilità composta Il teorema della probabilità composta deriva dal concetto di probabilità condizionata per cui la probabilità che due eventi si verifichino contemporaneamente è pari alla probabilità di uno dei due eventi moltiplicato con la probabilità dell'altro evento condizionato al verificarsi del primo. Nel caso di indipendenza stocastica si ottiene che la probabilità congiunta è pari al prodotto delle probabilità: A volte la probabilità congiunta viene anche indicata con Voci correlate • • • • probabilità probabilità condizionata teorema della probabilità assoluta teorema di Bayes Teorema della probabilità assoluta 17 Teorema della probabilità assoluta In teoria della probabilità il teorema della probabilità assoluta afferma che se partizione dello spazio campionario di tutti gli eventi possibili e è un qualsiasi evento (dipendente dagli eventi (ossia formano una e ), allora: Dimostrazione La dimostrazione di questo risultato segue immediatamente dal fatto che: dunque, per l'additività della probabilità, essendo gli eventi a due a due incompatibili: Ma poiché, in base alla definizione di probabilità condizionata: come volevasi dimostrare. Voci correlate • teorema della probabilità composta • teorema di Bayes , si ha: ) Probabilità condizionata 18 Probabilità condizionata In teoria della probabilità la probabilità condizionata di un evento A rispetto a un evento B è la probabilità che si verifichi A, sapendo che B è verificato. Questa probabilità, indicata o , esprime una "correzione" delle aspettative per A, dettata dall'osservazione di B. (Ha senso solo se B ha una probabilità non nulla di verificarsi.) Esempio Per esempio, la probabilità di ottenere "4" con il lancio di un comune dado (evento A) ha probabilità P(A)=1/6 di verificarsi. Sapendo però che il risultato del lancio è un numero tra "4", "5" e "6" (evento B), la probabilità di A diventa . Definizione La probabilità di A condizionata da B è , dove è la probabilità congiunta dei due eventi, ovvero la probabilità che si verifichino entrambi. In termini più rigorosi, dato uno spazio misurabile misurato di misura P, ogni evento B eredita una struttura di spazio , restringendo gli insiemi misurabili a quelli contenuti in B, ed induce una nuova misura su , con ) e B non è trascurabile ( probabilizzato . Se ), allora riscalando è uno spazio probabilizzato ( a si ottiene lo spazio delle probabilità condizionate da B. Proprietà La formula della probabilità condizionata permette di descrivere la probabilità congiunta come Ovvero, la probabilità che si verifichino sia A che B è pari alla probabilità che si verifichi B moltiplicata per la probabilità che si verifichi A supponendo che B sia verificato. Due eventi A e B sono indipendenti quando vale una delle tre equazioni equivalenti • • • ; ; . Casi particolari Se A e B sono eventi disgiunti, cioè se , le loro probabilità condizionate sono nulle: sapendo che uno dei due eventi si è verificato, è impossibile che si sia verificato anche l'altro. Se l'evento A implica l'evento B, cioè se • • (A implica B); (B è necessario per A). , allora la loro intersezione è A, per cui e: Probabilità condizionata 19 Nel caso di una misura di probabilità uniforme su uno spazio Ω finito, questa formula per P(A|B) esprime la definizione classica di probabilità come "casi favorevoli (A) su casi possibili (B)". Invece, per P(B|A) otteniamo il valore 1 che, per un numero finito di valori lo stesso Bayes interpretò in senso lato come la certezza che il tutto. sia condizionato dalla parte. Ulteriori definizioni La speranza condizionata di una variabile aleatoria X ad un evento B è la speranza di X calcolata sulle probabilità (condizionate da B). La probabilità di un evento A può essere condizionata da una variabile aleatoria discreta X, originando una nuova variabile aleatoria, , che per X=x assume il valore . Applicazioni Il teorema di Bayes esprime l'uguaglianza simmetrica del teorema della probabilità composta come . Questo teorema è alla base dell'inferenza bayesiana in statistica, dove P è detta "probabilità a priori di B" e PB "probabilità a posteriori di 'B". Paradossi Molti paradossi sono legati alla probabilità condizionata e derivano sia da un'errata formulazione del problema sia dalla confusione di P(A|B) con P(A) o con P(B|A). Esempi particolari sono il paradosso delle due buste, il paradosso dei due bambini, il problema di Monty Hall e il paradosso di Simpson. Voci correlate • • • • • • Probabilità congiunta Indipendenza (probabilità) Inferenza bayesiana Teorema di Bayes Teorema della probabilità composta Valore atteso condizionato Bibliografia • Giuseppe Zwirner, L. Scaglianti, Itinerari nella matematica vol.1, Padova, CEDAM, 1989, ISBN 88-1316794-6 Teorema di Bayes 20 Teorema di Bayes Il teorema di Bayes (conosciuto anche come formula di Bayes o teorema della probabilità delle cause), proposto da Thomas Bayes, deriva da due teoremi fondamentali delle probabilità: il teorema della probabilità composta e il teorema della probabilità assoluta. Viene impiegato per calcolare la probabilità di una causa che ha scatenato l'evento verificato. Per esempio si può calcolare la probabilità che una certa persona soffra della malattia per cui ha eseguito il test diagnostico (nel caso in cui questo sia risultato negativo) o viceversa non sia affetta da tale malattia (nel caso in cui il test sia risultato positivo), conoscendo la frequenza con cui si presenta la malattia e la percentuale di efficacia del test diagnostico. Formalmente il teorema di Bayes è valido in tutte le interpretazioni della probabilità. In ogni caso, l'importanza di questo teorema per la statistica è tale che la divisione tra le due scuole (statistica bayesiana e statistica frequentista) nasce dall'interpretazione che si dà al teorema stesso. Enunciato del teorema di Bayes Considerando un insieme di alternative (partizione dello spazio degli eventi) si trova la seguente espressione per la probabilità condizionata: Dove: • P(A) è la probabilità a priori o probabilità marginale di A. "A priori" significa che non tiene conto di nessuna informazione riguardo E. • P(A|E) è la probabilità condizionata di A, noto E. Viene anche chiamata probabilità a posteriori, visto che è derivata o dipende dallo specifico valore di E. • P(E|A) è la probabilità condizionata di E, noto A. • P(E) è la probabilità a priori di E, e funge da costante di normalizzazione. Intuitivamente, il teorema descrive il modo in cui le opinioni nell'osservare A siano arricchite dall'aver osservato l'evento E. Un esempio Si consideri una scuola che ha il 60% di studenti maschi e il 40% di studentesse femmine. Le studentesse indossano in egual numero gonne o pantaloni; gli studenti indossano tutti quanti i pantaloni. Un osservatore, da lontano, nota un generico studente coi pantaloni. Qual è la probabilità che quello studente sia una femmina? Il problema può essere risolto con il teorema di Bayes, ponendo l'evento A che lo studente osservato sia femmina, e l'evento B che lo studente osservato indossi i pantaloni. Per calcolare P(A|B), dovremo sapere: • P(A), ovvero la probabilità che lo studente sia femmina senza nessun'altra informazione. Dato che l'osservatore vede uno studente a caso, ciò significa che tutti gli studenti hanno la stessa probabilità di essere osservati. Essendo le studentesse il 40% del totale, la probabilità risulterà 2/5. • P(A'), ovvero la probabilità che lo studente sia maschio senza nessun'altra informazione. Essendo A' l'evento complementare di A, risulta 3/5. • P(B|A), ovvero la probabilità che uno studente indossi i pantaloni, noto che lo studente è femmina. Poiché indossano gonne e pantaloni in egual numero, la probabilità sarà di 1/2. • P(B|A'), ovvero la probabilità che uno studente indossi i pantaloni, noto che lo studente è maschio. Tutti gli studenti maschi indossano i pantaloni, quindi vale 1. Teorema di Bayes 21 • P(B), ovvero la probabilità che uno studente qualsiasi (maschio o femmina) indossi i pantaloni. Poiché il numero di coloro che indossa i pantaloni è di 80 (60 maschi + 20 femmine) su 100 studenti fra maschi e femmine, la probabilità P(B) è di 80/100 = 4/5. Ciò detto, possiamo applicare il teorema: C'è pertanto 1/4 di probabilità che lo studente sia femmina cioè 25%.[1] Derivazione del teorema Il problema deriva dalla definizione di probabilità condizionata. La probabilità di un evento A, noto un evento B, risulta: In modo analogo, la probabilità di un evento B noto un evento A: Pertanto: Sostituendo nella prima uguaglianza, si trova il teorema di Bayes: Teorema di Bayes. Applicazioni Applicazione al Problema di Monty Hall Si supponga di partecipare a un gioco a premi, in cui si può scegliere fra tre porte: dietro una di esse c'è un'automobile, dietro le altre, due capre. Si sceglie una porta, diciamo la numero 1, e il conduttore del gioco a premi, che sa cosa si nasconde dietro ciascuna porta, ne apre un'altra, diciamo la 3, rivelando una capra. Quindi domanda: «Vorresti scegliere la numero 2? «Ti conviene cambiare la tua scelta originale?» Si potrebbe pensare che, con due porte chiuse, si abbia una probabilità 50:50 per ognuna, e che quindi non ci sia motivo di cambiare porta. Non è questo il caso. Chiamiamo l'evento che la macchina si trovi dietro una certa porta rispettivamente A1, A2, e A3. All'inizio, è ovvio che: Come detto prima, la porta scelta è la numero 1. Chiameremo allora B l'evento "il presentatore apre la porta 3". La sua probabilità a priori sarà del 50%, e quindi . Ora: • Nel caso in cui la macchina sia dietro la porta 1, il presentatore sarà libero di scegliere la porta 2 o 3 casualmente. Pertanto, • Nel caso in cui la macchina sia dietro la porta 2, il presentatore sarà obbligato ad aprire la porta 3. Pertanto • Nel caso in cui la macchina sia dietro la porta 3, il presentatore sarà obbligato ad aprire la porta 2. Pertanto Teorema di Bayes Da cui: Da ciò è evidente che si deve sempre cambiare con la porta 2. Filtri bayesiani I filtri bayesiani sono uno strumento utilizzato per combattere lo spam che deve il suo funzionamento proprio al teorema di Bayes. Un filtro bayesiano fa uso di un classificatore bayesiano per riconoscere se una certa sequenza di simboli (come una parola) si presenta spesso nei messaggi di spam, quindi applica l'inferenza bayesiana per calcolare la probabilità che un determinato messaggio sia spam. Cenni storici Il teorema si chiama così in onore del reverendo Thomas Bayes (1702–1761), il quale studiò come calcolare una distribuzione per il parametro di una distribuzione binomiale. Un suo amico, Richard Price, pubblicò il lavoro nel 1763, dopo la morte di Bayes, nell'articolo Essay Towards Solving a Problem in the Doctrine of Chances. Alcuni anni dopo (nel 1774) viene formulato da Pierre Simon Laplace che probabilmente non era a conoscenza del lavoro di Bayes. Una ricerca da parte di un professore di statistica (Stigler, 1982) sembrerebbe suggerire che il teorema di Bayes sia stato scoperto da Nicholas Saunderson anni prima di Bayes. Note [1] La verifica dell'esattezza del risultato, in questo semplice esempio, è immediata se si ricorre alla semplice definizione di "probabilità di un evento" = "numero dei casi favorevoli all'evento/numero dei casi possibili". Il numero dei casi possibili, indossando lo studente (o studentessa) osservato i pantaloni, è di 80 (60 maschi + 20 femmine) mentre quello dei casi favorevoli (cioè le femmine che indossano pantaloni) è 20, quindi la probabilità che si tratti di una femmina è 20/80 cioè 1/4 c.v.d. Bibliografia Versioni saggistiche • Thomas Bayes (1763), An Essay towards solving a Problem in the Doctrine of Chances. By the late Rev. Mr. Bayes, F. R. S. communicated by Mr. Price, in a letter to John Canton, A. M. F. R. S., Philosophical Transactions, Giving Some Account of the Present Undertakings, Studies and Labours of the Ingenious in Many Considerable Parts of the World, 53:370–418. • Thomas Bayes (1763/1958), Studies in the History of Probability and Statistics: IX. Thomas Bayes' Essay Towards Solving a Problem in the Doctrine of Chances, Biometrika 45:296–315. (Bayes' essay in modernized notation). 22 Teorema di Bayes Commenti • G. A. Barnard, Studies in the History of Probability and Statistics: IX. Thomas Bayes' Essay Towards Solving a Problem in the Doctrine of Chances, Biometrika 45:293–295, 1958 • Daniel Covarrubias, An Essay Towards Solving a Problem in the Doctrine of Chances (http://www.stat.rice. edu/~blairc/seminar/Files/danTalk.pdf). • Stephen M. Stigler, Thomas Bayes' Bayesian Inference, Journal of the Royal Statistical Society, Series A, 145:250–258, 1982 • Isaac Todhunter, A History of the Mathematical Theory of Probability from the time of Pascal to that of Laplace, Macmillan, 1865. Ristampa 1949, 1956 by Chelsea e 2001 by Thoemmes. Voci correlate • • • • • Probabilità Probabilità condizionata Teorema della probabilità composta Teorema della probabilità assoluta Paradosso dei corvi • • • • • • • Problema di Monty Hall Paradosso delle tre carte Paradosso dei due bambini Inferenza bayesiana Thomas Bayes Pierre Simon Laplace Diagnosi 23 24 Rapporti agili Distribuzione discreta In teoria delle probabilità una distribuzione discreta è una distribuzione di probabilità definita su un insieme discreto S. In particolare questo insieme può essere finito oppure numerabile (i suoi elementi possono essere elencati tramite i numeri naturali: ). Una variabile aleatoria (o stocastica, o casuale dall'inglese random) è discreta se segue una distribuzione di probabilità discreta. Se l'insieme S è contenuto nei numeri reali, si può definire la funzione di ripartizione della distribuzione, che assume valori su S; se viene rappresentata su tutti numeri reali allora acquista la forma di una funzione a gradini, costante sugli intervalli semiaperti . Particolari distribuzioni discrete di probabilità sono: • • • • • • • • • • • • la distribuzione discreta uniforme, la distribuzione binomiale, la distribuzione di Bernoulli, la distribuzione di Poisson (o degli eventi rari), la distribuzione geometrica, la distribuzione di Pascal, la distribuzione ipergeometrica, la distribuzione di Wilcoxon, la distribuzione di Benford (o della prima cifra), la distribuzione del test di Kolmogorov-Smirnov, la distribuzione di Spearman, la distribuzione di Rademacher. Un caso particolare è la distribuzione degenere su un solo elemento: e . Anche le distribuzioni su più dimensioni (multivariate) possono essere discrete, come la distribuzione multinomiale. Tabella delle distribuzioni discrete comuni La tabella seguente riassume le proprietà delle distribuzioni discrete più comuni, si intende e Distribuzione discreta Distribuzione 25 Parametri Supporto Funzione di densità Valore atteso Bernoulliana Uniforme Geometrica Binomiale di Pascal Ipergeometrica Voci correlate • Distribuzione di probabilità • Funzione di ripartizione Distribuzione discreta uniforme Distribuzione discreta uniforme su elementi in progressione aritmetica Funzione di distribuzione discreta Varianza Distribuzione discreta uniforme 26 Funzione di ripartizione Parametri estremi della progressione elementi nella progressione Supporto Funzione di densità Funzione di ripartizione su per Valore atteso Mediana Moda Varianza Skewness Curtosi Entropia Funz. Gen. dei Momenti Funz. Caratteristica In teoria delle probabilità una distribuzione discreta uniforme è una distribuzione di probabilità discreta che è uniforme su un insieme, ovvero che attribuisce la stessa probabilità ad ogni elemento dell'insieme discreto S su cui è definita (in particolare l'insieme dev'essere finito). Un esempio di distribuzione discreta uniforme è fornito dal lancio di un dado equilibrato: ognuno dei valori 1, 2, 3, 4, 5 e 6 ha eguale probabilità 1/6 di verificarsi. Questa distribuzione di probabilità è quella che fornisce la classica definizione di probabilità "casi favorevoli su casi possibili": la probabilità di un evento è data dal rapporto tra le cardinalità dei due insiemi, Distribuzione discreta uniforme 27 Definizione La distribuzione discreta uniforme su un insieme finito S è la distribuzione di probabilità che attribuisce a tutti gli elementi di S la stessa probabilità p di verificarsi. In particolare, dalla relazione seguono per ogni elemento , per ogni sottoinsieme . Progressione aritmetica Spesso viene considerata la distribuzione discreta uniforme su un insieme S i cui elementi sono in progressione aritmetica, ovvero del tipo . In questo caso l'insieme S può essere descritto come un insieme di n elementi in progressione aritmetica, da a a b, con elementi della forma , con e . In questo modo la distribuzione discreta uniforme diventa una sorta di approssimazione della distribuzione continua uniforme sull'intervallo Caratteristiche La distribuzione è simmetrica rispetto al punto medio aleatoria U con questa distribuzione ha quindi speranza del segmento . Una variabile e indice di asimmetria Inoltre ha • varianza , • curtosi , • funzione generatrice dei momenti • entropia (il massimo valore possibile per una distribuzione su n elementi). . Distribuzione discreta uniforme 28 Altre distribuzioni Il parallelo della distribuzione discreta uniforme tra le distribuzioni di probabilità continue è la distribuzione continua uniforme: una distribuzione definita su un insieme continuo S, che attribuisce la stessa probabilità a due intervalli della stessa lunghezza, contenuti in S, ovvero la cui densità di probabilità assume un valore costante su S. Distribuzione su due valori La distribuzione di Bernoulli con è una distribuzione discreta uniforme: i due valori 0 e 1 hanno entrambi probabilità . Ogni altra distribuzione discreta uniforme su due valori a e b può essere espressa tramite una variabile aleatoria X con distribuzione di Bernoulli , considerando la variabile aleatoria . La distribuzione discreta uniforme sui due valori 1 e -1 è anche detta distribuzione di Rademacher, dal matematico tedesco Hans Rademacher; al pari di altre distribuzioni su due valori, viene utilizzata nel metodo bootstrap per il ricampionamento dei dati. Voci correlate • • • • Distribuzione di probabilità Distribuzione discreta Distribuzione continua uniforme Progressione aritmetica Collegamenti esterni (EN) Eric W. Weisstein, Distribuzione discreta uniforme [1] su MathWorld. Note [1] http:/ / mathworld. wolfram. com/ DiscreteUniformDistribution. html Distribuzione di Bernoulli 29 Distribuzione di Bernoulli Distribuzione di Bernoulli Funzione di distribuzione discreta Funzione di ripartizione Parametri Supporto Funzione di densità Funzione di ripartizione Valore atteso Mediana Moda Varianza Skewness Curtosi Entropia Funz. Gen. dei Momenti Funz. Caratteristica In teoria delle probabilità la distribuzione di Bernoulli (o bernoulliana) è una distribuzione di probabilità su due soli valori, 0 e 1, detti anche fallimento e successo. Prende il nome dallo scienziato svizzero Jakob Bernoulli (1654-1705). Definizione La distribuzione di Bernoulli di parametro è Altre leggi Un processo di Bernoulli è una serie di variabili aleatorie indipendenti Xi di uguale distribuzione di Bernoulli B(p), dette prove di Bernoulli. La distribuzione binomiale descrive il numero di successi in n prove, ovvero la variabile aleatoria . La distribuzione geometrica e più in generale la distribuzione di Pascal descrivono il tempo del primo e del k-esimo successo, ovvero le variabili aleatorie e per cui Distribuzione di Bernoulli 30 Voci correlate • • • • • Distribuzione binomiale Distribuzione geometrica Distribuzione di Pascal Distribuzione di probabilità Processo di Bernoulli Processo di Bernoulli In teoria delle probabilità un processo di Bernoulli è un particolare processo aleatorio discreto, ovvero una famiglia numerabile (X1, X2, ...) di variabili aleatorie indipendenti aventi la medesima legge di Bernoulli B(p). Un processo di Bernoulli può essere considerato come una sequenza infinita di lanci di una moneta (non truccata). Ogni singolo lancio è detto prova di Bernoulli. In particolare, essendo le variabili indipendenti, vale la mancanza di memoria: la probabilità di una prova di Bernoulli non è influenzata dal risultato delle precedenti (che quindi non possono fornire alcuna informazione sulla nuova prova). Variabili aleatorie Ogni singola variabile aleatoria Xi può fornire due soli risultati: il successo (1) o il fallimento (0), con rispettive probabilità p e q=1-p: Il numero di successi dopo n prove è dato dalla variabile aleatoria , che segue la legge binomiale B(p,n), con probabilità pari al numero di sequenze di k successi e n-k fallimenti, moltiplicato per la probabilità che una qualunque di queste si verifichi. Il numero di lanci necessari per ottenere un successo è dato da una variabile aleatoria N che segue la legge geometrica di rapporto q: . Più in generale, il numero di lanci necessari per ottenere k successi è dato da una variabile aleatoria Nk di legge ; in particolare, il numero di fallimenti è dato dalla variabile aleatoria Pk = Nk-n, di legge di Pascal (o binomiale negativa) P(p,k) . Processo di Bernoulli 31 Applicazioni In statistica un processo di Bernoulli (a tempo finito) viene utilizzato come modello per il campione di una popolazione della quale si vuole determinare la proporzione p che verifica una certa proprietà. Ogni processo di Bernoulli (con p qualunque) può venire utilizzato per originare, tramite l'estrazione di Von Neumann, un nuovo processo di Bernoulli le cui prove seguono la legge B(1/2). Questo metodo è particolarmente utilizzato nella teoria della complessità computazionale e prevede di raggruppare le originali prove di Bernoulli a coppie successive; se i due elementi sono diversi si prende il valore del primo, mentre se sono uguali la coppia viene scartata, come ad esempio: 11 10 11 01 01 01 00 11 01 01 01 01 01 10 10 11 00 10 10 10 11 01 01 00 10 10 1 0 0 0 0 0 0 0 0 1 1 1 1 1 0 0 1 1 Questo metodo sfrutta l'uguaglianza delle probabilità ; e siccome 2pq è al più 1/2, la lunghezza della stringa finale risulta mediamente essere lunga non più di un quarto della stinga iniziale. Funzione di Bernoulli Un processo di Bernoulli può essere interpretato come una misura sullo spazio di Morse delle successioni di 0 e 1, o sull'intervallo [0,1] dei numeri reali in base binaria (la successione è la loro espressione decimale). In particolare, per p=1/2 si ottiene una misura uniforme. Poiché ogni prova ha uno o due possibili risultati, una sequenza di tentativi può essere rappresentata dalle cifre binarie di un numero reale. Quado la probabilità p = 1/2, tutte le possibili distribuzioni sono ugualmente verosimili, , e quindi la misura della σ-algebra del processo di Bernoulli è equivalente alla misura uniforme nell'intervallo unitario: in altre parole, i numeri reali sono uniformemente distribuiti sull'intervallo unitario. L'operatore di shift Bernoulli, ( che mangia la prima cifra, mandando ogni cifra nella precedente ( ) equivale quindi alla moltiplicazione per 2 modulo 1, o funzione di , dove {2α} è la parte frazionaria di 2α). La mappa di Bernoulli è un modello esattamente risolubile di caos deterministico. L'operatore di trasferimento, o operatore di Rouelle, di quest'applicazione è risolubile: i suoi autovalori sono potenze di 1/2 e le sue autofunzioni sono i polinomi di Bernoulli. Generalizzazioni La generalizzazione del processo di Bernoulli nel caso multinomiale (più di due possibili risultati) è chiamata schema di Bernoulli. Bibliografia • Carl W. Helstrom, Probability and Stochastic Processes for Engineers, (1984) Macmillan Publishing Company, New York ISBN 0-02-353560-1. • Dimitri P. Bertsekas and John N. Tsitsiklis, Introduction to Probability, (2002) Athena Scientific, Massachusetts ISBN 1-886529-40-X • Pierre Gaspard, "r-adic one-dimensional maps and the Euler summation formula", Journal of Physics A, 25 (letter) L483-L485 (1992). (Describes the eigenfunctions of the transfer operator for the Bernoulli map) Processo di Bernoulli 32 • Dean J. Driebe, Fully Chaotic Maps and Broken Time Symmetry, (1999) Kluwer Academic Publishers, Dordrecht Netherlands ISBN 0-7923-5564-4 (Chapters 2, 3 and 4 review the Ruelle resonances and subdynamics formalism for solving the Bernoulli map). Voci correlate • • • • • • Processo aleatorio Variabile casuale di Bernoulli Variabile aleatoria binomiale Variabile casuale geometrica Variabili indipendenti processo di Levy Distribuzione binomiale Distribuzione binomiale Funzione di distribuzione discreta Funzione di ripartizione Parametri Supporto Distribuzione binomiale 33 Funzione di densità Funzione di ripartizione (funzione Beta incompleta regolarizzata) Valore atteso Mediana tra e (non precisa) Moda se Varianza Skewness Curtosi Entropia Funz. Gen. dei Momenti Funz. Caratteristica In teoria della probabilità la distribuzione binomiale è una distribuzione di probabilità discreta che descrive il numero di successi in un processo di Bernoulli, ovvero la variabile aleatoria che somma n variabili aleatorie indipendenti di uguale distribuzione di Bernoulli B(p). Esempi di casi di distribuzione binomiale sono i risultati di una serie di lanci di una stessa moneta o di una serie di estrazioni da un'urna (con reintroduzione), ognuna delle quali può fornire due soli risultati: il successo con probabilità p e il fallimento con probabilità q=1-p. Definizione La distribuzione binomiale • • è caratterizzata da due parametri: : la probabilità di successo della singola prova di Bernoulli Xi (0 < p < 1). : il numero di prove effettuate. Per semplicità di notazione viene solitamente utilizzato anche il parametro , che esprime la probabilità di fallimento per una singola prova. La distribuzione di probabilità è: cioè ogni successione con k successi e n-k insuccessi ha probabilità , mentre il numero di queste successioni, pari al numero di modi (o combinazioni) in cui possono essere disposti i k successi negli n tentativi, è dato dal coefficiente binomiale . La formula del binomio di Newton mostra come la somma di tutte le probabilità nella distribuzione sia uguale ad 1: Distribuzione binomiale 34 Esempio Per calcolare la probabilità di ottenere con 5 lanci di un dado (equilibrato a 6 facce) esattamente 3 volte "4", basta considerare i lanci come un processo di Bernoulli. Ogni singola prova ha probabilità p=1/6 di ottenere "4" (successo) e probabilità q=5/6 di non ottenerlo (insuccesso). Il numero di successi con 5 prove è allora descritto da una variabile aleatoria S5 di legge B(5,1/6). La probabilità di ottenere esattamente 3 volte "4" con 5 lanci (e 2 volte "non 4") è Caratteristiche Siccome la distribuzione binomiale B(n,p) descrive una variabile aleatoria Sn definita come la somma di n variabili aleatorie indipendenti Xi di uguale legge di Bernoulli B(p), molte caratteristiche di Sn possono essere ricavate da quelle di X: • il valore atteso • la varianza • la funzione generatrice dei momenti • la funzione caratteristica • il coefficiente di skewness • il coefficiente di curtosi La moda di si ottiene confrontando le probabilità successive . Se intero allora e la moda non è unica; se invece allora la moda è pari alla sua parte intera Non esistono formule precise per la mediana di . superiore di , assume il valore e . Se dell'intervallo possono essere presi come mediana. non è un intero , che tuttavia dev'essere compresa tra le parti intere inferiore e è un intero allora la mediana è (ad esempio è un numero per ed . Se la funzione di ripartizione dispari) allora tutti i valori Distribuzione binomiale 35 Altre distribuzioni di probabilità La distribuzione di Bernoulli B(p) può essere considerata come un caso particolare di distribuzione binomiale B(p,1), che descrive un processo di Bernoulli con una sola prova: S1=X1. I successi in una sequenza di estrazioni da un'urna, effettuate senza reintroduzione degli estratti, sono descritti da una variabile aleatoria che segue la legge ipergeometrica. Convergenze Per valori di n sufficientemente grandi la legge binomiale è approssimata da altre leggi. Quando n tende a infinito, lasciando fisso λ=np, la distribuzione binomiale tende alla distribuzione di Poisson P(λ)=P(np). In statistica quest'approssimazione viene solitamente accettata quando n ≥ 20 e p ≤ 1/20, oppure quando n ≥ 100 e np ≤ 10. Per il teorema del limite centrale, quando n tende a infinito, lasciando fisso p, la distribuzione binomiale tende alla distribuzione normale N(np,npq), di speranza np e varianza npq. In statistica quest'approssimazione viene solitamente accettata quando np>5 e nq>5. Più precisamente, il teorema del limite centrale afferma che Generalizzazioni Una generalizzazione della distribuzione binomiale che descrive la somma distribuzione di Bernoulli è la legge distribuzione Beta-binomiale , di n variabili aleatorie indipendenti, ognuna con , dove P segue la legge Beta . (Al contrario della distribuzione binomiale, le Xi non hanno lo stesso parametro.) La distribuzione binomiale è una delle quattro distribuzioni di probabilità definite dalla ricorsione di Panjer: . Statistica Nell'inferenza bayesiana si utilizzano particolari relazioni tra la distribuzione binomiale e altre distribuzioni di probabilità. Se P è una variabile aleatoria che segue la distribuzione Beta distribuzione binomiale e Sn è una variabile aleatoria con , allora la probabilità condizionata da Sn=x per P segue la distribuzione Beta . In altri termini, la distribuzione Beta descrive P sia a priori che a posteriori di Sn=x. In particolare la distribuzione continua uniforme sull'intervallo [0,1] è un caso particolare di distribuzione Beta , quindi la distribuzione per P, a posteriori di Sn=x, segue la legge Beta inciso ha un massimo in x/n. , che per Distribuzione binomiale 36 Voci correlate • • • • Processo di Bernoulli Distribuzione di Bernoulli Distribuzione normale Distribuzione di Poisson Distribuzione geometrica Distribuzione geometrica Funzione di distribuzione discreta Funzione di ripartizione Parametri Supporto Funzione di densità Funzione di ripartizione Valore atteso Mediana Moda Varianza Skewness Curtosi Entropia Funz. Gen. dei Momenti Funz. Caratteristica se Distribuzione geometrica 37 In teoria della probabilità la distribuzione geometrica è una distribuzione di probabilità discreta sui numeri naturali (con l'elemento "0") che segue una progressione geometrica: E' la probabilità che il primo successo (o evento in generale) richieda l' eseguzione di k prove indipendenti, ognuna di probabilità di successo p. Se la probabilità di successo di ogni prova è p, allora la probabilità che alla kesima prova (dopo k prove) si ottenga il successo è con k = 1, 2, 3, .... La formula qui sopra è usata per modellizzare il numero di tentativi fino ad ottenere il primo successo. Qui sotto invece si cerca il numero di successi fino al prim fallimento: for k = 0, 1, 2, 3, .... In either case, the sequence of probabilities is a geometric sequence. Definizione La distribuzione geometrica è la distribuzione di probabilità sui numeri naturali della forma , con dove q indica la probabilità di insuccesso. Il parametro si ricava da . A volte lo zero viene escluso dal supporto: se T ha distribuzione geometrica sopra descritta, la distribuzione di X =T+1 sarà e le altre funzioni saranno modificate di conseguenza. Nell'esempio citato sopra, X sarebbe il numero di estrazioni da fare perché esca un numero fissato. Processo di Bernoulli La distribuzione geometrica di parametro q descrive anche il numero T di fallimenti che precedono il primo successo in un processo di Bernoulli di parametro p=1-q: Caratteristiche Una variabile aleatoria T con distribuzione geometrica di parametro q e avente come supporto i numeri naturali incluso il numero 0 ha • funzione di probabilità • funzione di ripartizione • valore atteso • varianza Distribuzione geometrica 38 • funzione generatrice dei momenti (nella tabella c'è altro) -> • funzione caratteristica I quantili si ricavano dalla funzione di ripartizione: • se è un numero intero ( • se invece ) allora non è intero, allora e ; (parte intera). In particolare la mediana è se con intero, altrimenti. Assenza di memoria La distribuzione geometrica è priva di memoria, ovvero ed è l'unica distribuzione di probabilità discreta con questa proprietà. L'indipendenza delle prove in un processo di Bernoulli implica l'assenza di memoria della distribuzione geometrica. D'altro canto, ogni variabile aleatoria T a supporto sui numeri naturali e priva di memoria rispetta pertanto ha una distribuzione di probabilità geometrica di parametro . Generalizzazioni Una generalizzazione della distribuzione geometrica è la distribuzione di Pascal (o distribuzione binomiale negativa), che descrive il numero di fallimenti precedenti il successo r-esimo in un processo di Bernoulli. Un'ulteriore generalizzazione della distribuzione di Pascal è la distribuzione di Panjer che, come la distribuzione geometrica, definisce le probabilità per ricorsione. Esempi La probabilità che un dado (equilibrato, a 6 facce) debba venire lanciato esattamente 10 volte prima di fornire un "4" è data dalla distribuzione geometrica. Il lancio del dado può essere considerato un processo di Bernoulli, in cui ogni prova Xi ha probabilità p=1/6 di fornire "4" (successo) e q=5/6 di fornire un altro numero (fallimento). La probabilità cercata è quindi La probabilità che dopo 10 lanci sia uscito almeno un "4" è invece La probabilità che al decimo lancio si ottenga un "4" dopo che per 9 lanci questo numero non è mai stato ottenuto è facilmente calcolabile grazie alla mancanza di memoria Distribuzione geometrica 39 Voci correlate • • • • • • • Distribuzione di Bernoulli Distribuzione di Panjer Distribuzione di Pascal Distribuzione di probabilità Mancanza di memoria Processo di Bernoulli Variabile aleatoria Distribuzione di Poisson Distribuzione di Poisson Funzione di distribuzione discreta Funzione di ripartizione Parametri Supporto Funzione di densità Funzione di ripartizione (dove è la funzione Gamma incompleta) Valore atteso Mediana circa Moda sia Varianza che se Distribuzione di Poisson 40 Skewness Curtosi Entropia Funz. Gen. dei Momenti Funz. Caratteristica In teoria delle probabilità la distribuzione di Poisson (o poissoniana) è una distribuzione di probabilità discreta che esprime le probabilità per il numero di eventi che si verificano successivamente ed indipendentemente in un dato intervallo di tempo, sapendo che mediamente se ne verifica un numero . Ad esempio, si utilizza una distribuzione di Poisson per misurare il numero di chiamate ricevute in un call-center in un determinato arco temporale, come una mattinata lavorativa. Questa distribuzione è anche nota come legge degli eventi rari. Prende il nome dal matematico francese Siméon-Denis Poisson. Definizione La distribuzione di Poisson è per ogni dove , è il numero medio di eventi per intervallo di tempo. Dallo sviluppo in serie dell'esponenziale si trova . Convergenza La distribuzione di Poisson può essere ottenuta come limite delle distribuzioni binomiali ovvero si ha una convergenza in legge di a , con , . Per questa convergenza la distribuzione di Poisson è anche nota come legge (di probabilità) degli eventi rari. In statistica si adotta l'approssimazione della distribuzione binomiale tramite la distribuzione di Poisson quando n>20 e p<1/20, o preferibilmente quando n>100 e np<10. Caratteristiche Una variabile aleatoria Y di distribuzione di Poisson ha • valore atteso • varianza • funzione generatrice dei momenti • indici di skewness e di curtosi , Distribuzione di Poisson 41 • entropia che ha un andamento Proprietà Se Y1 e Y2 sono due variabili aleatorie indipendenti con distribuzioni di Poisson di parametri e rispettivamente, allora • la loro somma segue ancora una distribuzione di Poisson, di parametro ; • la distribuzione di Y1 condizionata da Y=n è la distribuzione binomiale di parametri Più in generale, la somma parametri e . di n variabili aleatorie indipendenti con distribuzioni di Poisson di segue una distribuzione di Poisson di parametro distribuzione di Y1 condizionata da Y=n è la distribuzione binomiale di parametri , mentre la e . Distribuzioni collegate Se la distribuzione di Poisson di parametro descrive il numero di eventi in un intervallo di tempo, il tempo di attesa tra due eventi successivi è descritto dalla distribuzione esponenziale di parametro . La distribuzione di Skellam è definita come la distribuzione della differenza tra due variabili aleatorie indipendenti aventi entrambe distribuzioni di Poisson. La mistura di distribuzioni tra la distribuzione di Poisson e la distribuzione Gamma (che governa il parametro )è la distribuzione di Pascal, che talvolta è anche detta Gamma-Poisson. La distribuzione di Panjer, definita per ricorsione, generalizza la distribuzione di Poisson: . Statistica Approssimazioni Per una variabile aleatoria con distribuzione di Poisson distribuzione normale ; per parametri più piccoli ( viene solitamente approssimata con la ) sono invece necessarie delle correzioni di continuità, legate ai diversi domini delle due distribuzioni (una discreta, una continua). La radice quadrata di una variabile aleatoria con distribuzione di Poisson è approssimata da una distribuzione normale meglio di quanto lo sia la variabile stessa. Il parametro può essere stimato come la media delle osservazioni effettuate. Questo stimatore è privo di bias, ovvero ha come valore atteso stesso. Inferenza bayesiana Se il parametro di una distribuzione di Poisson distribuito a priori secondo la distribuzione Gamma, allora lo è anche a posteriori dell'osservazione . Intervallo di confidenza per la media Un criterio rapido per il calcolo approssimato dell'intervallo di confidenza della media campionaria è fornito in Guerriero (2012). Dato un numero k di eventi (almeno 15-20 per un'approssimazione soddisfacente) registrati in un certo intervallo di tempo - o di lunghezza, volume etc. -, i limiti dell'intervallo di confidenza per il parametro λ sono Distribuzione di Poisson 42 dati da: Storia Questa distribuzione fu introdotta da Siméon-Denis Poisson nel 1838 nel suo articolo "Recherches sur la probabilité des jugements en matière criminelle et en matière civile"[1]. Secondo alcuni storici questa variabile casuale dovrebbe portare il nome di Ladislaus Bortkiewicz considerati gli studi fatti da questo nel 1898. In realtà la poissoniana come approssimazione della binomiale era già stata introdotta nel 1718 da Abraham de Moivre in Doctrine des chances. Tavole dei valori della funzione di probabilità λ = 0,1; 0,2; ... 1,0 k 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 0 .9048 .8187 .7408 .6703 .6065 .5488 .4966 .4493 .4066 .3679 1 .0905 .1637 .2222 .2681 .3033 .3293 .3476 .3595 .3659 .3679 2 .0045 .0164 .0333 .0536 .0758 .0988 .1217 .1438 .1647 .1839 3 .0002 .0011 .0033 .0072 .0126 .0198 .0284 .0383 .0494 .0613 4 .0001 .0003 .0007 .0016 .0030 .0050 .0077 .0111 .0153 5 .0001 .0002 .0004 .0007 .0012 .0020 .0031 6 .0001 .0002 .0003 .0005 7 .0001 λ = 1,2; 1,4; ... 3,0 k 1,2 1,4 1,6 1,8 2,0 2,2 2,4 2,6 2,8 3,0 0 .3012 .2466 .2019 .1653 .1353 .1108 .0907 .0743 .0608 .0498 1 .3614 .3452 .3230 .2975 .2707 .2438 .2177 .1931 .1703 .1494 2 .2169 .2417 .2584 .2678 .2707 .2681 .2613 .2510 .2384 .2240 3 .0867 .1128 .1378 .1607 .1804 .1966 .2090 .2176 .2225 .2240 4 .0260 .0395 .0551 .0723 .0902 .1082 .1254 .1414 .1557 .1680 5 .0062 .0111 .0176 .0260 .0361 .0476 .0602 .0735 .0872 .1008 6 .0012 .0026 .0047 .0078 .0120 .0174 .0241 .0319 .0407 .0504 7 .0002 .0005 .0011 .0020 .0034 .0055 .0083 .0118 .0163 .0216 8 .0001 .0002 .0005 .0009 .0015 .0025 .0038 .0057 .0081 9 .0001 .0002 .0004 .0007 .0011 .0018 .0027 10 .0001 .0002 .0003 .0005 .0008 Distribuzione di Poisson 43 11 .0001 .0001 .0002 12 .0002 λ = 3,5; 4,0; ... 8,0 k 3,5 4,0 4,5 5,0 5,5 6,0 6,5 7,0 7,5 8,0 0 .0302 .0183 .0111 .0067 .0041 .0025 .0015 .0009 .0006 .0003 1 .1057 .0733 .0500 .0337 .0225 .0149 .0098 .0064 .0041 .0027 2 .1850 .1465 .1125 .0842 .0618 .0446 .0318 .0223 .0156 .0107 3 .2158 .1954 .1687 .1404 .1133 .0892 .0688 .0521 .0389 .0286 4 .1888 .1954 .1898 .1755 .1558 .1339 .1118 .0912 .0729 .0573 5 .1322 .1563 .1708 .1755 .1714 .1606 .1454 .1277 .1094 .0916 6 .0771 .1042 .1281 .1462 .1571 .1606 .1575 .1490 .1367 .1221 7 .0385 .0595 .0824 .1044 .1234 .1377 .1462 .1490 .1465 .1396 8 .0169 .0298 .0463 .0653 .0849 .1033 .1188 .1304 .1373 .1396 9 .0066 .0132 .0232 .0363 .0519 .0688 .0858 .1014 .1144 .1241 10 .0023 .0053 .0104 .0181 .0285 .0413 .0558 .0710 .0858 .0993 11 .0007 .0019 .0043 .0082 .0143 .0225 .0330 .0452 .0585 .0722 12 .0002 .0006 .0016 .0034 .0065 .0113 .0179 .0263 .0366 .0481 13 .0001 .0002 .0006 .0013 .0028 .0052 .0089 .0142 .0211 .0296 14 .0001 .0002 .0005 .0011 .0022 .0041 .0071 .0113 .0169 15 .0001 .0002 .0004 .0009 .0018 .0033 .0057 .0090 16 .0001 .0003 .0007 .0014 .0026 .0045 17 .0001 .0003 .0006 .0012 .0021 18 .0001 .0002 .0005 .0009 19 .0001 .0002 .0004 20 .0001 .0002 21 .0001 Note [1] (EN) Jan Gullberg, Mathematics from the birth of numbers, W. W. Norton & Company; p. 963-965. ISBN 0-393-04002-X ISBN 978-0-393-04002-9 Bibliografia • Guerriero V. (2012). Power Law Distribution: Method of Multi-scale Inferential Statistics (http://www.sjmmf. org/download.aspx?ID=11). J. Mod. Math. Fr.: 21–28. • Donald E. Knuth, Seminumerical Algorithms (in inglese), Addison Wesley, 1969. • Ronald J. Evans, J. Boersma, N. M. Blachman, A. A. Jagers (1988). The Entropy of a Poisson Distribution: Problem 87-6. SIAM Review 30 (2): 314–317 (in inglese). DOI: 10.1137/1030059 (http://dx.doi.org/10. 1137/1030059). Distribuzione di Poisson 44 Voci correlate • Distribuzione binomiale • Mistura di distribuzioni • Convergenza in distribuzione Collegamenti esterni (EN) Eric W. Weisstein, Distribuzione di Poisson (http:/ / mathworld. wolfram. com/ PoissonDistribution. html) su MathWorld. Distribuzione di Pascal Distribuzione di Pascal, o binomiale negativa Funzione di distribuzione discreta Funzione di ripartizione Parametri oppure Supporto Funzione di densità Funzione di ripartizione funzione Beta incompleta regolarizzata Valore atteso Mediana Moda Varianza Skewness Curtosi Entropia Funz. Gen. dei Momenti Distribuzione di Pascal 45 Funz. Caratteristica In teoria delle probabilità la distribuzione di Pascal è una distribuzione di probabilità discreta con due parametri, ed , che descrive il numero di fallimenti precedenti il successo n-esimo in un processo di Bernoulli di parametro p. A volte si considera la distribuzione di Pascal come quella distribuzione che descrive il numero di prove necessarie per ottenere n successi. Questa distribuzione è equivalente alla precedente ma riscalata, ovvero descrive una variabile aleatoria anziché . Ad esempio, lanciando una moneta fino ad ottenere 3 volte testa, la distribuzione di Pascal descrive le probabilità per il numero di risultati croce visti nel frattempo. La distribuzione prende il nome dal matematico francese Blaise Pascal. Questa distribuzione di probabilità può essere generalizzata sostituendo il numero naturale n con un numero reale positivo r. In questo caso viene detta anche distribuzione binomiale negativa (per la sua particolare formula) o di Polya (dal matematico ungherese George Polya). Definizione Dato un processo di Bernoulli, ovvero una serie di variabili aleatorie indipendenti di uguale distribuzione di Bernoulli che conta , la distribuzione di Pascal il numero di fallimenti precedenti il successo numero , descrive la variable aleatoria (ovvero il numero di prove necessarie ad ottenerlo, meno n): . La probabilità di fallimento di una singola prova è . La probabilità che si verifichino esattamente k fallimenti prima di ottenere un totale di n successi è data dalla probabilità di ottenere un successo nella prova numero k+n ( ) e di ottenere esattamente k fallimenti e n-1 successi nelle prove precedenti, ovvero , dove il coefficiente binomiale conta il numero di possibili disposizioni di successi e fallimenti. Questa probabilità può anche essere scritta nella forma binomiale negativa , dove si considera la generalizzazione del coefficiente binomiale . Definizioni alternative Sostituendo il numero naturale n con il numero reale positivo r la formula mantiene un significato, anche se il coefficiente binomiale può essere espresso tramite la funzione Gamma, che estende il concetto di fattoriale ( ): . Alcuni testi definiscono la distribuzione di Pascal come quella che descrive il numero di prove fino al successo n-esimo, ed altri scambiano i termini successo ed insuccesso nella definizione. Per collegare queste definizioni basta rispettivamente considerare la variabile aleatoria al posto di nel primo caso e scambiare i valori di p e Distribuzione di Pascal 46 q nell'altro. Distribuzione geometrica Una variabile aleatoria con distribuzione di Pascal aleatorie indipendenti con uguale distribuzione geometrica è pari alla somma di n variabili . Questo si può vedere considerando come variabile aleatoria che conta il numero di fallimenti intercorsi tra il successo numero la e il successo numero le sono allora indipendenti ed hanno distribuzione geometrica di parametro q. In particolare, la distribuzione di Pascal coincide con la distribuzione geometrica : , e la somma di m variabili aleatorie indipendenti con distribuzioni di Pascal aventi lo stesso parametro p segue ancora la distribuzione di Pascal con parametro p (è sempre somma di variabili aleatorie indipendenti con uguale distribuzione geometrica). Caratteristiche Alcune caratteristiche di una variabile aleatoria Tn che segue la distribuzione di Pascal ricavare dalle caratteristiche di una variabile aleatoria T con distribuzione geometrica • il valore atteso si possono : , • la varianza , • la funzione generatrice dei momenti , • gli indici di simmetria e di curtosi . La funzione di ripartizione può essere definita tramite la funzione Beta incompleta regolarizzata: Tutte le formule valgono ancora anche sostituendo il numero naturale n con il numero reale positivo r. Altre distribuzioni La distribuzione di Pascal è una mistura della distribuzione Gamma e della distribuzione di Poisson: una variabile aleatoria con distribuzione di Poisson , il cui parametro L segua una distribuzione Gamma, segue la distribuzione di Pascal. La distribuzione di Pascal , di speranza , converge alla distribuzione di Poisson . La distribuzione di Pascal si trova anche come mistura della distribuzione di Poisson e della distribuzione logaritmica, ovvero descrive la somma di un numero , che segue la distribuzione di Poisson, di variabili aleatorie indipendenti che seguono una stessa distribuzione logaritmica. Considerando le variabili aleatorie aleatorie di distribuzione binomiale di si trova la formula distribuzione e le variabili di Pascal Distribuzione di Pascal 47 , che esprime per un processo di Bernoulli l'equivalenza degli eventi "ottenere meno di k insuccessi prima del successo n-esimo" e "ottenere almeno n successi nelle prime n+k prove". La distribuzione di Panjer, che definisce i valori per ricorsione, generalizza la distribuzione di Pascal: Statistica La distribuzione di Pascal viene talvolta utilizzata in alternativa alla distribuzione di Poisson, a cui converge in legge sotto la condizione , nei casi in cui il modello empirico presenti una varianza maggiore del valore medio: la distribuzione di Poisson ha sempre speranza pari al valore medio, mentre la distribuzione di Pascal è più dispersa (ha una varianza maggiore). Come spesso avviene nell'inferenza bayesiana, se il parametro p di una distribuzione di Pascal segue a priori la distribuzione Beta, allora la segue anche a posteriori. Voci correlate • • • • • • Coefficiente binomiale Convergenza in distribuzione Distribuzione geometrica Distribuzione di Poisson Mistura di distribuzioni Processo di Bernoulli 48 53 X ... Distribuzione continua In teoria della probabilità, una distribuzione di probabilità continua è una distribuzione di probabilità che possiede una funzione di densità. Viene anche chiamata distribuzione assolutamente continua, in quanto la sua funzione di ripartizione è assolutamente continua rispetto alla misura di Lebesgue. Se una variabile casuale X ha distribuzione di probabilità continua, allora X è detta variabile casuale continua. Ci sono molti esempi di distribuzioni di probabilità continue, tra cui le distribuzioni normale, uniforme e chi quadrato. Intuitivamente, le variabili casuali continue sono quelle che possono assumere un insieme continuo di valori, al contrario delle distribuzioni discrete, per le quali l'insieme dei possibili valori ha cardinalità al più numerabile. Inoltre, mentre per una distribuzione discreta un evento con probabilità zero è irrealizzabile (come, ad esempio, ottenere 3½ da un lancio di un dado tradizionale), questo non è vero nel caso di una variabile casuale continua. Ad esempio, misurando la lunghezza di una foglia di quercia, è possibile ottenere il risultato 3½ cm, ma questo ha probabilità zero poiché vi sono infiniti possibili valori tra 3 cm e 4 cm. Ognuno di questi ha probabilità zero, ma la probabilità che la lunghezza della foglia sia nell'intervallo (3 cm, 4 cm) è non nulla. Questo apparente paradosso è causato dal fatto che la probabilità che una variabile casuale X assuma valori in un insieme infinito, come un intervallo, non può essere calcolata semplicemente sommando la probabilità dei singoli valori. Più formalmente, dato che, per definizione, ogni variabile casuale continua X ha una funzione di densità ƒ(x), allora la probabilità che X cada nell'intervallo [a, b] è data dall'integrale In particolare, la probabilità che X assuma un singolo valore c (o, equivalentemente, c ≤ X ≤ c) è zero, poiché un integrale con limiti inferiore e superiore coincidenti è sempre uguale a zero. Come detto, la funzione di ripartizione di una distribuzione continua è assolutamente continua. La condizione che tale funzione sia continua è più debole ed esiste una classe di distribuzioni, le distribuzioni singolari, che non sono né continue, né discrete, né una mistura di queste. Tali distribuzioni tuttavia, non si incontrano mai nelle applicazioni pratiche. Alcuni autori, chiamano distribuzioni continue quelle la cui funzione di ripartizione è continua, andando quindi ad includere anche le distribuzioni singolari. Tabella delle distribuzioni continue più comuni Nel seguito una tabella delle distribuzioni continue più comuni, si sottointende che la funzione di densità vale 0 al di fuori del supporto e che la funzione di ripartizione vale 0 nei punti precedenti al supporto e 1 nei punti successivi. Distribuzione continua Distribuzione 49 Parametri Supporto Funzione di densità Funzione di ripartizione Valore medio Varianza distribuzione uniforme distribuzione normale distribuzione esponenziale distribuzione Gamma Voci correlate • Variabile casuale • Variabile casuale discreta • Teoria della probabilità Altri progetti • Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/ Category:Probability distributions Collegamenti esterni • Continuous Random Variables. [1] John Appleby, School of Mathematical Sciences, Dublin City University. • (EN) A.V. Prokhorov, "Continuous distribution [2]" SpringerLink Encyclopaedia of Mathematics (2001) Note [1] http:/ / webpages. dcu. ie/ ~applebyj/ ms207/ CNSRV1. pdf [2] http:/ / www. encyclopediaofmath. org/ index. php/ Continuous+ distribution Funzione di ripartizione 50 Funzione di ripartizione In statistica e teoria della probabilità, la funzione di ripartizione, anche nota come funzione di distribuzione cumulativa, è una funzione di variabile reale che racchiude le informazioni su un fenomeno (un insieme di dati, un evento casuale) riguardanti la sua presenza o la sua distribuzione prima o dopo un certo punto. Nel calcolo delle probabilità Nel calcolo delle probabilità la funzione di ripartizione di una variabile casuale X a valori reali è la funzione che associa a ciascun valore la probabilità dell'evento "la variabile casuale X assume valori minori o uguali ad x". In altre parole, è la funzione con dominio la retta reale e immagine l'intervallo definita da Una funzione F è una valida funzione di ripartizione se è non decrescente, continua a destra e Una funzione di ripartizione non è necessariamente continua a sinistra (e dunque continua globalmente): se X è una variabile casuale discreta e z un punto del suo supporto, allora F è una funzione a gradino e dunque (ponendo senza restrizioni di generalità ) poiché è una costante indipendente da x, mentre dunque essendo p(z)≠0 F non è continua. Più in generale, una funzione di ripartizione individua univocamente una intera distribuzione di probabilità, cioè una funzione che ad ogni sottoinsieme misurabile A associa la probabilità che X cada in A[1]. Proprietà Si può dimostrare dalla definizione che valgono le seguenti uguaglianze, ponendo per semplicità di notazione : • • • • • • Se X è una variabile casuale assolutamente continua la funzione di ripartizione di X può essere espressa come funzione integrale: ove f è detta funzione di densità di X. Si può anche considerare la relazione inversa: Funzione di ripartizione 51 Se X è una variabile casuale discreta (ossia ammette una collezione numerabile di possibili valori dove ) è detta funzione di probabilità di X. Esempi Se X è la variabile aleatoria risultato del lancio di un dado a sei facce si ha dove con si indica la parte intera di x. Se X è la variabile casuale uniforme continua in si ha . Grafico della funzione di ripartizione relativa alla distribuzione uniforme Funzione di sopravvivenza In alcuni modelli è più utile analizzare la probabilità che un certo dato numerico valga più del valore x (come nella vita di un organismo, biologico o meccanico): questi casi sono trattati dalla branca chiamata analisi di sopravvivenza. Si definisce allora la funzione di sopravvivenza S (dal termine inglese survival) come il complemento della funzione di ripartizione: Nei casi rispettivamente continuo e discreto, valgono naturalmente delle identità speculari a quelle della ripartizione: e Ogni funzione di sopravvivenza Il tempo è una funzione monotona decrescente, Vale a dire per rappresenta l'origine, in genere l'inizio di uno studio o l'inizio del funzionamento di alcuni sistemi. Funzione di ripartizione 52 Variabili aleatorie multivariate Più in generale la funzione di ripartizione di una variabile aleatoria X a valori in e codominio l'intervallo dove sono le componenti di è la funzione F(x) con dominio definita da . Questa funzione possiede la proprietà di essere continua a destra separatamente per ogni variabile. Valgono inoltre le seguenti formule, derivanti dalla definizione: • Per qualsiasi i, • F è monotona crescente separatamente in ogni variabile, cioè se • se , per semplicità, • dove G è la funzione di ripartizione della variabile k-1-variata Da quest'ultima proprietà viene anche l'uguaglianza . e l'affermazione vale ovviamente anche per ogni permutazione degli indici i. In statistica descrittiva In statistica la funzione di ripartizione empirica o funzione di distribuzione cumulativa viene usata per descrivere fenomeni quantitativi o comunque descritti con valori misurati su scale ordinali, intervallari o proporzionali, ma non se misurati con una scala nominale. La funzione di ripartizione o viene indicata solitamente con e rappresenta il numero di osservazioni del fenomeno minori o uguali del valore x. Se sono le osservazioni (ordinate in senso crescente), con frequenze relative ripartizione ha espressione analitica Le sono dette frequenze cumulate. la funzione di Funzione di ripartizione 53 Note [1] J. Jacod; P. Protter, op. cit., Pag. 41 Bibliografia • Giorgio Dall'Aglio, Calcolo delle probabilità, Zanichelli, Bologna, 2003 • (EN) Jean Jacod; Philip Protter, Probability Essentials, Springer, 2000. ISBN 3540438718 Voci correlate • • • • • • • • Distribuzione (statistica) Funzione càdlàg Funzione di densità di probabilità Funzione caratteristica Funzione di probabilità Integrale Percentile Quantile • • • • Statistica Teoria della probabilità Variabile casuale Histogram matching Funzione di densità di probabilità In matematica, una funzione di densità di probabilità (o pdf dall'inglese probability density function) è la funzione di probabilità di una variabile casuale nel caso in cui la variabile casuale sia continua, cioè l'insieme dei possibili valori ha la potenza del continuo. Essa descrive la "densità" di probabilità in ogni punto nello spazio campionario. Definizione La funzione densità di probabilità di una variabile casuale è l'applicazione non negativa integrabile secondo Lebesgue e reale di variabile reale tale che la probabilità dell'insieme A sia data da per tutti i sottinsiemi A dello spazio campionario. Questo implica che l'integrale su tutto lo spazio di deve essere 1. Di conseguenza ogni funzione non negativa, integrabile secondo Lebesgue, con integrale su tutto lo spazio uguale a 1, è la funzione densità di probabilità di una ben definita distribuzione di probabilità. Una variabile casuale che possiede densità si dice "variabile casuale continua". Intuitivamente, se una distribuzione di probabilità ha densità , allora l'intervallo ha probabilità . Per le variabili casuali multivariate (o vettoriali) la trattazione formale è assolutamente identica: dice assolutamente continua se esiste una funzione a valori reali definita in per ogni sottoinsieme A dello spazio campionario si , detta densità congiunta, tale che Funzione di densità di probabilità 54 Essa conserva tutte le proprietà di una densità scalare: è una funzione non negativa a integrale unitario su tutto lo spazio. Una proprietà importante è che se è assolutamente continua allora lo è ogni sua componente; il viceversa invece non vale. La densità di una componente, detta densità marginale, si ottiene con un ragionamento analogo al teorema della probabilità assoluta, cioè fissando l'insieme di suoi valori di cui si vuole determinare la probabilità e lasciando libere di variare tutte le altre componenti. Infatti (nel caso bivariato per semplicità) l'evento è l'evento , dunque utilizzando il teorema di Fubini. La densità marginale di X è data dunque da Esempio La funzione di densità della variabile casuale normale di media 0 e varianza 1 (detta normale standard), di cui è sotto riportato il grafico e l'espressione analitica della corrispondente densità nel caso generico (media e varianza ). Voci correlate • • • • • • • Funzione di ripartizione Funzione di probabilità Funzione caratteristica Variabile casuale Teoria della probabilità Statistica Integrale • Percentile • Quantile Esempio di gaussiana . Variabile casuale 55 Variabile casuale In teoria della probabilità, una variabile casuale (dall'inglese random variable, in italiano variabile aleatoria o variabile stocastica) può essere pensata come il risultato numerico di un esperimento quando questo non è prevedibile con certezza (ossia non è deterministico). Ad esempio, il risultato del lancio di un dado a sei facce può essere matematicamente modellato come una variabile casuale che può assumere uno dei sei possibili valori . Bruno de Finetti definiva numero aleatorio (termine suggerito dallo stesso per denotare la variabile aleatoria) un numero ben determinato ma non noto per carenza di informazioni. Il termine aleatorio deriva da alea ed esprime il concetto di rischio calcolato, non casuale (alea iacta est). La denominazione alternativa stocastico è stata introdotta da Bruno De Finetti[1]. Il termine casuale è una traduzione diretta dall'inglese di random. Definizione Più formalmente, sia dato uno spazio campionario su cui è definita una misura di probabilità , una variabile casuale è una funzione misurabile dallo spazio campionario a uno spazio misurabile; in questa definizione la nozione di misurabilità è quella definita da Lindgren (1976): una funzione definita sullo spazio campionario si dice misurabile rispetto al campo di Borel se e solo se l'evento appartiene a per ogni . • Le variabili casuali a una dimensione (cioè a valori in ) si dicono semplici o univariate. • Le variabili casuali a più dimensioni si dicono multiple o multivariate (doppie, triple, k-uple). Variabili casuali che dipendono da un parametro t (t come tempo) vengono considerate processi stocastici. Distribuzione di probabilità Ad una variabile casuale X si associa la sua distribuzione, o legge di probabilità sottoinsieme dell'insieme dei possibili valori di formule, se probabilità di dove la probabilità che la variabile casuale X assuma valore in esso. In è una variabile casuale che ha valori in in , che assegna ad ogni e è un sottoinsieme di , la distribuzione di vale è la misura di probabilità definita sullo spazio campionario. Per variabili aleatorie a valori reali, la legge di probabilità della variabile casuale dalla sua funzione di ripartizione, definita come è individuata univocamente . Inoltre: • se la variabile casuale X è discreta, cioè l'insieme dei possibili valori (il rango o supporto di ) è finito o numerabile, è definita anche la funzione di massa (o funzione massa di probabilità o densità discreta), ossia la funzione di probabilità discreta • se la variabile casuale è continua, cioè l'insieme dei possibili valori ha la potenza del continuo, è definita anche la funzione di densità di probabilità, cioè la funzione non negativa tale per cui In altri termini descrivere in termini probabilistici o statistici una fenomeno aleatorio nel tempo, caratterizzabile dunque da una variabile aleatoria, vuol dire descriverlo in termini di densità di distribuzione di probabilità e dei suoi parametri di media o valore atteso e varianza. Variabile casuale Storia Ancorché non formalizzato, il concetto della distribuzione statistica attorno ad una media era noto fin dall'antichità. Leggiamo infatti nel Fedone di Platone: «E non è ingiusto, questo? Non è forse vero che chi si comporta così, evidentemente vive tra gli uomini senza averne nessuna esperienza? Se, infatti, li conoscesse appena, saprebbe che son pochi quelli veramente buoni o completamente malvagi e che per la maggior parte, invece, sono dei mediocri.» «In che senso?» feci. «È lo stesso delle cose molto piccole e molto grandi. Credi forse che sia tanto facile trovare un uomo o un cane o un altro essere qualunque molto grande o molto piccolo o, che so io, uno molto veloce o molto lento o molto brutto o molto bello o tutto bianco o tutto nero? Non ti sei mai accorto che in tutte le cose gli estremi sono rari mentre gli aspetti intermedi sono frequenti, anzi numerosi?» (Platone, Fedone, XXXIX) Alcune variabili casuali utilizzate in statistica Le variabili casuali si dividono principalmente in due grandi classi, discrete e continue (o assolutamente continue): Esempi del primi tipo: • • • • • • • variabile casuale uniforme discreta variabile casuale bernoulliana, caso particolare della Binomiale variabile casuale binomiale variabile casuale poissoniana detta pure legge degli eventi rari variabile casuale geometrica, caso particolare della distribuzione di Pascal variabile casuale ipergeometrica variabile casuale degenere Esempi del secondo tipo: • • • • • • • • • variabile casuale normale o gaussiana variabile casuale Gamma o Erlanghiana variabile casuale t di Student variabile casuale di Fisher-Snedecor variabile casuale esponenziale negativa, caso particolare della v.c. Gamma variabile casuale Chi Quadrato χ², caso particolare della v.c. Gamma variabile casuale Beta variabile casuale rettangolare o uniforme continua variabile casuale di Cauchy Tali classi non sono però esaustive della famiglia delle variabili casuali; esiste anche una terza classe, delle variabili casuali singolari o continue singolari, come la variabile casuale di Cantor. Il teorema di rappresentazione di Lebesgue ci assicura che ogni funzione di ripartizione (e dunque ogni variabile casuale) è rappresentabile come combinazione convessa di una funzione di ripartizione discreta, una continua e una singolare. Variabili casuali che non appartengono a nessuna delle tre classi vengono dette miste. Si può comunque dimostrare che le classi delle v.c. discrete e delle v.c. continue sono dense nella classe di tutte le variabili casuali rispetto alla convergenza in distribuzione, cioè per ogni variabile casuale esiste una successione di v.c. discrete (rispettivamente continue) che converge in distribuzione alla variabile data. 56 Variabile casuale 57 Teoremi Se sono variabile casuale Bernoulliane uguali e indipendenti allora , è anch'essa una variabile casuale binomiale Se è una variabile casuale binomiale piccolo, tale che con molto grande (orientativamente più di 50) e è, orientativamente, minore di 10 e quasi uguale a molto , allora può essere approssimata con una variabile casuale poissoniana ove . Se è una variabile casuale binomiale con molto grande, ma (e dunque non vale l'approssimazione con la poissoniana), allora può essere approssimata con una variabile casuale normale con valore atteso pari a e varianza uguale a : Se e sono due variabili casuali indipendenti, distribuite come una variabile casuale poissoniana con parametro rispettivamente e allora è a sua volta una variabile casuale Poissoniana con parametro Se e sono due variabile casuale Gamma in senso stretto ( rispettivamente a ) con il parametro uguale e allora è distribuita come una variabile casuale Beta con i parametri e Se e sono due variabile casuale identiche e indipendenti distribuite come una variabile casuale esponenziale negativa con parametro allora è una variabile casuale Gamma con parametri e Variabile casuale 58 La variabile casuale esponenziale negativa viene usata in relazione alla variabile casuale poissoniana in quanto: se il numero di successi entro un predeterminato intervallo di tempo è distribuito come una poissoniana (con parametro ), allora l'intervallo di tempo che passa tra due successi è distribuito come una esponenziale negativa con ; e viceversa. Se sono variabili casuali tra di loro indipendenti, ciascuna con gradi di libertà, allora la variabile casuale è a sua volta una variabile casuale con gradi di libertà, ove Se è una variabile casuale normale standardizzata ,e allora è una variabile casuale Considerato un campione di con 1 grado di libertà. elementi estratto da una popolazione normale indicando con distribuzione della varianza campionaria sarà: Se è una variabile casuale t di Student e allora tende ad una variabile casuale normale standardizzata ( e ) Se e , allora è distribuita come una variabile casuale t di Student con variabile casuale F di Snedecor: Se il secondo grado di libertà è molto grande, allora la F di Snedecor tende verso una variabile casuale Gamma con Se entrambi i gradi di libertà sono molto grandi, allora si può usare la normale gradi di libertà. la Variabile casuale 59 Se il primo grado di libertà è pari ad 1, allora si può usare la variabile casuale t di Student Se e sono variabili casuali Chi Quadrato con rispettivamente e gradi di libertà è distribuita come una variabile casuale F di Snedecor con e gradi di liberta; allora Se in un processo markoviano (continuo nel tempo) nascite-morti, con le condizioni iniziali e 0 altrimenti, si osserva un processo di pure nascite con tasso costante ; allora si ottiene la soluzione , ovvero una variabile casuale poissoniana con parametro Note [1] DELI, Dizionario etimologico della lingua italiana, Zanichelli, 2009 Voci correlate • Mistura di distribuzioni • Variabile casuale standardizzata • Winsorizzazione Altri progetti • Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Probability distribution per Variabili dipendenti e indipendenti Variabili dipendenti e indipendenti In matematica una variabile è dipendente da altre variabili se esiste una relazione tra di esse che la coinvolge, altrimenti è indipendente da esse. Due o più variabili indipendenti l'una dall'altra sono dette variabili indipendenti. In assenza di una relazione, le variabili sono solitamente supposte indipendenti. Ad esempio, le coordinate (x,y) dei punti nel piano sono variabili indipendenti, mentre le coordinate dei punti su una circonferenza di raggio r sono variabili dipendenti: x2+y2=r2 (alcuni valori che possono essere scelti singolarmente per le due variabili non possono essere presi contemporaneamente). In teoria delle probabilità due variabili aleatorie X e Y sono indipendenti quando lo sono le loro funzioni di probabilità, quindi se la loro probabilità congiunta è sempre pari al prodotto delle singole probabilità: In statistica talvolta la denominazione non è così precisa ma viene, per comodità d'uso, associata all'ordine con cui si considerano le variabili: ognuna viene detta dipendente o indipendente rispetto alle sole variabili precedenti (la prima è automaticamente indipendente). In particolare, per due variabili dipendenti X e Y (come l'età e il titolo di studio) è possibile scegliere quale considerare indipendente e quale dipendente. In base al contesto si usano come sinonimi • per una variabile indipendente: regressore, predittore, controllata, manipolata o di input; • per una variabile dipendente: di risposta, misurata, spiegata, sperimentale o di output. Voci correlate • Teorema della probabilità composta • Variabile (matematica) 60 Valore atteso 61 Valore atteso In teoria della probabilità il valore atteso (chiamato anche media, speranza o speranza matematica) di una variabile casuale , è un numero indicato con (da expected value o expectation in inglese o dal francese espérance) che formalizza l'idea euristica di valore medio di un fenomeno aleatorio. In generale il valore atteso di una variabile casuale discreta (che assuma cioè solo un numero finito o una infinità numerabile di valori) è dato dalla somma dei possibili valori di tale variabile, ciascuno moltiplicato per la probabilità di essere assunto (ossia di verificarsi), cioè è la media ponderata dei possibili risultati. Per una variabile casuale continua la questione è più delicata e si deve ricorrere alla teoria della misura e all'integrale di Lebesgue-Stieltjes. Ad esempio nel gioco testa o croce, se scegliamo "testa" e ipotizziamo un valore di 100 per la vittoria (testa) e di zero per la sconfitta (croce), il valore atteso del gioco è 50, ovvero la media delle vincite e perdite pesata in base alle probabilità (50% per entrambi i casi): , cioè il valore di "testa" per la sua probabilità e il valore di "croce" per la sua probabilità. Definizione matematica Sia uno spazio di probabilità, ed funzione misurabile valore atteso di una variabile aleatoria a valori reali su tale spazio (ossia una , dove i numeri si intendono equipaggiati con la loro σ-algebra boreliana). Il è semplicemente l'integrale di rispetto alla misura di probabilità : . Calcolare il valore atteso di variabili aleatorie discrete Nel caso di variabile casuale discreta che ammette funzione di probabilità può essere calcolata come Calcolare il valore atteso di variabili aleatorie assolutamente continue Nel caso di variabile casuale continua che ammette funzione di densità di probabilità f(x) il calcolo diventa Speranza matematica finita Si dice che ha speranza matematica finita nel discreto se mentre nel continuo se Valore atteso 62 Proprietà Media di una costante La media di una costante c (cioè di una variabile casuale che assume il valore c con probabilità 1) è ovviamente la costante stessa: E[c]=c. Linearità Un'importante caratteristica del valore atteso è la sua linearità: ovvero per ogni variabile casuale X e coppia di numeri reali a e b si ha Questa proprietà è facilmente dimostrabile: ad esempio, nel caso di una variabile casuale discreta, si ha perché la somma delle probabilità è 1, in quanto consideriamo la somma di tutti i possibili eventi. Questa proprietà ha la conseguenza importante che date due variabili casuali qualsiasi X e Y (non necessariamente indipendenti) si ha Questa proprietà non vale per il prodotto: in generale, E[XY] è diverso da E[X]E[Y]. Quando queste due quantità sono uguali, si dice che X e Y sono non correlate. In particolare, due variabili casuali indipendenti sono non correlate. Monotonia Se i valori che assume una variabile casuale X sono compresi tra due estremi a e b, così sarà la media di X; infatti e allo stesso modo si dimostra nel caso continuo. Da questo si deduce che se due variabili casuali verificano (ovvero, per ogni evento E, il valore di X in corrispondenza di quell'evento è maggiore o uguale di quello di Y), allora Stime del valore atteso In statistica, la stima del valore atteso assume un ruolo centrale, in quanto principale parametro usato nella statistica inferenziale. Calcolo del valore atteso nel gioco Gioco dei dadi Nel gioco dei dadi rappresentando il risultato del tiro del dado con una variabile casuale che possa assumere i valori , ciascuno con probabilità . Intuitivamente, la media di questa variabile casuale sarà , dal momento che . Valore atteso 63 Il gioco del lotto • Nel gioco del lotto vengono estratti 5 numeri tra 1 e 90, ed un giocatore può puntare una certa posta sul verificarsi di vari eventi. Calcoliamo il valore atteso del ricavo di uno scommettitore che punti 10 euro sulle cinque possibili giocate: • numero secco (si punta sull'uscita di un determinato numero; la vincita paga circa 11 volte la posta): la probabilità che il giocatore vinca è data dal rapporto da 5/90 (rapporto tra i numeri vincenti e tutti i numeri che possono essere estratti), ed in tal caso il giocatore vincerà euro; la probabilità di perdita è 85/90, ed in tal caso il giocatore perderà i 10 euro di puntata. Il ricavo medio sarà quindi . Ossia, in media il giocatore perderà euro per ogni 10 euro giocati. • ambo (si punta sull'uscita di un determinata coppia di numeri; la vincita paga 250 volte la posta): vi sono possibili coppie di numeri. Poiché sulla ruota vengono estratti 5 numeri, gli ambi estratti sono e pertanto il giocatore vincerà con probabilità 10/4005, ed in tal caso egli guadagnerà euro; la probabilità di perdita è 3995/4005, ed in tal caso il giocatore perderà i 10 euro di puntata. Il guadagno medio sarà quindi . Ossia, in media il giocatore perderà euro per ogni 10 euro giocati. • terno (si punta sull'uscita di un determinata terna di numeri; la vincita paga 4500 volte la posta): Ci sono 117480 possibili terne distinte di numeri. • quaterna (si punta sull'uscita di un determinata quaterna di numeri; la vincita paga 120000 volte la posta): Ci sono 2555190 possibili quaterne distinte di numeri. • cinquina (si punta sull'uscita di un determinata cinquina di numeri; la vincita paga 6 milioni di volte la posta): Ci sono 43949268 possibili cinquine distinte di numeri. La tabella seguente mostra un riepilogo delle perdite medie per una giocata di importo pari a 1 euro. Probabilità di vincita Quote di Vincita per 1 euro giocato Perdita media in centesimi Ambo 1/(400.5) 250 37.6 Terna 1/(11748) 4500 61.7 Quaterna 1/(511038) 120000 76.5 Cinquina 1/(43949268) 6 milioni 86.3 Bibliografia • Giorgio Dall'Aglio, Calcolo delle probabilità, Zanichelli, Bologna, 2003 Probabilità e lotto [1] Voci correlate • • • • • • Teoria della probabilità Media Funzione generatrice dei momenti Funzione di densità Funzione di ripartizione Valore atteso condizionato Valore atteso 64 Note [1] http:/ / www. unipa. it/ ~sanfilippo/ pub/ sigad/ lotto. pdf Varianza Nella teoria della probabilità e in statistica la varianza di una variabile aleatoria x (e della distribuzione di probabilità che questa segue) è una funzione indicata con σ2(x), che fornisce una misura di quanto siano vari i valori assunti dalla variabile, ovvero di quanto si discostino dal valore atteso . Definizione La varianza di x è definita come il valore atteso del quadrato della variabile aleatoria centrata In statistica viene spesso preferita la radice quadrata della varianza di x, lo scarto tipo (o scarto quadratico medio) indicato con la lettera σ. Per questo motivo talvolta la varianza viene indicata con σ2. Un esempio di "misura" dello scostamento di una variabile aleatoria dalla media è dato dalla disuguaglianza di Čebyšëv che controlla questo scostamento in termini dello scarto tipo: Proprietà La varianza di una variabile aleatoria non è mai negativa, ed è zero solamente quando la variabile assume quasi certamente un solo valore, P(x=x)=1. Una formula alternativa per la varianza è Questa formula è a volte più pratica per calcolare la varianza. Linearità La varianza è invariante per traslazione, che lascia fisse le distanze dalla media, e cambia quadraticamente per riscalamento: La varianza della somma di due variabili indipendenti è pari alla somma delle loro varianze Usande le due precedenti affermazioni, possiamo dire che la varianza della differenza di due variabili indipendenti è pari alla somma delle loro varianze Se x e y non sono indipendenti, la formula viene corretta dalla loro covarianza, , dove In particolare, la media aritmetica varianza aritmetica di n variabili aleatorie indipendenti aventi la medesima legge, ha Varianza 65 Variabili discrete e continue La varianza di una variabile aleatoria discreta x a valori in un insieme X si calcola attraverso la sua funzione di probabilità: La varianza di una variabile aleatoria continua x a valori in un insieme X si calcola attraverso la sua densità di probabilità: Statistica In statistica viene utilizzata più spesso della varianza la sua radice quadrata, vale a dire lo scarto quadratico medio anche detto deviazione standard. Con riferimento a questa notazione la varianza si trova quindi anche indicata come . Stimatori In statistica si utilizzano solitamente due stimatori per la varianza su un campione di cardinalità n: e (anche chiamati varianza campionaria) dove , è lo stimatore per la media. Lo stimatore Sn-1 è privo di bias, ovvero il suo valore atteso è proprio la varianza . Al contrario, lo stimatore Sn ha un valore atteso diverso dalla varianza, . Una giustificazione del termine n-1 è data dalla necessità di stimare anche la media. Se la media μ è nota, lo stimatore Sn diventa corretto. Questa è detta "Correzione di Bessel". Varianza 66 In contrasto con, Se le xi seguono la legge normale N(μ,σ), lo stimatore S2n-1 segue una legge del χ2 Varianza osservata Come per gli stimatori, esistono due diverse varianze osservate sui dati di un campione osservata , e In particolare, di media . è la media quadratica delle distanze dei valori dalla loro media. Esempi Una variabile aleatoria x di legge di Bernoulli B(p), ovvero che ha probabilità p di fornire "1" e probabilità q=1-p di fornire "0", ha valore medio ; la sua varianza può essere calcolata come oppure come . Il campione {-4, -1, 1, 2, 7} ha media aritmetica e le varianze aritmetiche osservate sono e Varianza 67 . Voci correlate • • • • • Covarianza Legge della varianza totale Scarto quadratico medio Valore atteso Variabili indipendenti Legge della varianza totale La legge della varianza totale è un teorema della teoria della probabilità, che afferma che se casuali definite sul medesimo spazio di probabilità, e la varianza di dove è il valore atteso condizionato di x, e e sono variabili è finita, allora: la varianza condizionata, ovvero: Dal punto di vista della statistica più che della teoria della probabilità, il primo termine è detto componente non spiegata della varianza totale, e il secondo è la componente spiegata; tale suggestiva terminologia si ricollega all'analisi del modello lineare, e in particolare al coefficiente di determinazione, o R². Dimostrazione La legge della varianza totale può essere immediatamente dimostrata sfruttando la legge delle aspettative iterate, come segue. Relazione con il modello lineare La legge della varianza totale presenta un'importante relazione con il modello di regressione lineare. Nel caso univariato, il modello lineare può essere enunciato come: Si ha in tal caso che il rapporto di covarianza: Ma allora, la componente spiegata della varianza totale altro non è che: così che il rapporto tra l'espressione sopra e è il quadrato del coefficiente di correlazione tra e : Legge della varianza totale 68 Tale grandezza corrisponde in effetti al coefficiente di determinazione R². È possibile ottenere un'analoga relazione nel caso multivariato. Estensioni ai momenti di ordine superiore Esistono relazioni analoghe alla legge della varianza totale e alla legge delle aspettative iterate per i momenti centrali di ordine superiore. Ad esempio, con riferimento al momento centrale di ordine 3, si ha: Voci correlate • Teorema della probabilità totale • Legge delle aspettative iterate • Regressione lineare Covarianza In teoria della probabilità la covarianza σ di due variabili aleatorie è un numero σ(x,y) che fornisce una misura di quanto le due varino assieme, ovvero della loro dipendenza. Definizione La covarianza di due variabili aleatorie x e y è il valore atteso dei prodotti delle loro distanze dalla media: . La covarianza di x e y può anche essere espressa come la differenza tra il valore atteso del loro prodotto e il prodotto dei loro valori attesi: . Infatti per la linearità del valore atteso risulta . Proprietà La covarianza rispetta le seguenti proprietà, per variabili aleatorie x, y e z, e costanti a e b: • • • Due variabili aleatorie indipendenti hanno covarianza nulla, poiché dalla loro indipendenza segue Due variabili aleatorie che hanno covarianza nulla sono non correlate. Due variabili aleatorie dipendenti possono essere non correlate. Ad esempio, se x è una variabile aleatoria di legge uniforme sull'intervallo [-1,1] e y=x2, allora Covarianza 69 Varianza La covarianza può essere considerata una generalizzazione della varianza e compare come termine di correzione nella relazione Più in generale, per variabili aleatorie e vale come caso particolare di . Statistica Su un campione di n osservazioni congiunte (xi,yi), di rispettive medie osservate e , la covarianza osservata è . Uno stimatore della covarianza per N osservazioni congiunte (xi,yi) è L'indice di correlazione di Pearson è il rapporto tra la covarianza e le radici delle varianze: Voci correlate • • • • Valore atteso Variabili indipendenti Varianza Matrice delle covarianze Deviazione standard 70 Deviazione standard La deviazione standard o scarto tipo[1] o scarto quadratico medio è un indice di dispersione delle misure sperimentali, vale a dire è una stima della variabilità di una popolazione di dati o di una variabile casuale. La deviazione standard è uno dei modi per esprimere la dispersione dei dati intorno ad un indice di posizione, quale può essere, ad esempio, il valore atteso o una stima del suddetto valore atteso. La deviazione standard ha pertanto la stessa unità di misura dei valori osservati (al contrario della varianza che ha come unità di misura il quadrato dell'unità di misura dei valori di riferimento). In statistica la precisione si può esprimere come deviazione standard. Il termine "standard deviation" è stato introdotto in statistica da Pearson[2] assieme alla lettera greca σ che lo rappresenta. Il termine italiano "deviazione standard" ne è la traduzione più utilizzata nel linguaggio comune; il termine dell'Ente Nazionale Italiano di Unificazione è tuttavia "scarto tipo", definito come la radice quadrata positiva della varianza per lo meno fin dal 1984[3]. Se non indicato diversamente, la deviazione standard è semplicemente la radice quadrata della varianza, la quale viene coerentemente rappresentata con il quadrato di sigma (σ²). Una serie di dati con una media di 50 (in blu) e una deviazione standard (σ) di 20. dove è la media aritmetica. Formalmente lo scarto tipo di una variabile casuale può essere calcolato a partire dalla funzione generatrice dei momenti (radice quadrata della differenza tra il momento secondo ed il momento primo elevato al quadrato). A partire dallo scarto tipo si definisce anche il coefficiente di variazione[4] o la deviazione standard relativa come il rapporto tra lo scarto tipo e il modulo della media aritmetica dei valori: Questo nuovo parametro (che assolutamente non può essere espresso in percentuale) consente di effettuare confronti tra dispersioni di dati di tipo diverso, indipendentemente dalle loro quantità assolute. Esistono argomenti teorici, soprattutto nell'ambito della teoria della stima ovvero nell'ambito della statistica inferenziale (dove è noto solo un campione della popolazione), per rimpiazzare il fattore con nella definizione, ottenendo come nuova definizione: Sostanzialmente, poiché non è nota la media dell'intera popolazione, ma solo una sua stima (la media del campione), bisogna utilizzare per ottenere uno stimatore corretto della varianza della popolazione a partire dai dati del campione. Questa correzione al denominatore fa sì che la nuova definizione sia un po' più grande della precedente, correggendo così la tendenza della precedente a sottostimare le incertezze soprattutto nel caso in cui si lavori con pochi dati ( piccolo). Osserviamo il caso limite di , cioè quando effettuiamo una sola misura: la prima definizione dà il risultato, sensato nell'ambito della statistica descrittiva ma non molto ragionevole nell'ambito della inferenziale, mentre la nuova dà un risultato non definito del tipo , , rispecchiando così la totale ignoranza inerente Deviazione standard all'incertezza su una singola misura. In questo senso, si dice che la statistica non dice nulla sul singolo caso. Peraltro la differenza tra le due definizioni è quasi sempre numericamente insignificante: già nel caso di dieci misure la differenza tra e è insignificante per la maggior parte degli scopi. Semplificando la formula Il calcolo può essere semplificato come segue: cioè, applicando il tutto alla formula originale: Poiché il primo addendo sotto radice può essere visto come il valore atteso degli x quadrati, spesso si scrive: Applicazioni In ambito finanziario, lo scarto tipo viene usato per indicare la variabilità di un'attività finanziaria e dei suoi payoff (rendimenti). Esso fornisce quindi, implicitamente, una misura della volatilità dell'attività, quindi del suo rischio. Nell'ambito del Capital Asset Pricing Model, fornendo un'idea della misura di rischio, esso determina univocamente il prezzo sul mercato. In fisica, è un ottimo indice dell'errore casuale della misurazione di una grandezza fisica. In ambito sportivo è utilizzato per valutare la prestazione di un giocatore di bowling in riferimento ad un certo numero di partite. Il valore trovato non incide sul punteggio ma sintetizza le capacità e i miglioramenti del giocatore. 71 Deviazione standard 72 Applicazioni informatiche Nelle applicazioni informatiche, è a volte conveniente utilizzare la formula che consente, con sole tre variabili , di calcolare la deviazione standard (oltre che la media) di un flusso di numeri di lunghezza imprecisata, senza dover ricorrere ad una memorizzazione degli stessi. Note [1] UNI, Norma italiana UNI ISO 3534-1:2000, Statistica - Vocabolario e simboli, Probabilità e termini statistici generali. Milano: UNI, 2000, definizione 1.23. [2] Karl Pearson, On the dissection of asymmetrical frequency curves, 1894 [3] UNI, Norma italiana UNI 4723:1984, Metodi statistici per il controllo della qualità. Termini, simboli e definizioni. Milano: UNI, 1984. sostituita dalla norma citata UNI ISO 3534-1 nel febbraio 2000. [4] UNI, Norma italiana UNI ISO 3534-1:2000, Statistica - Vocabolario e simboli, Probabilità e termini statistici generali. Milano: UNI, 2000, definizione 1.24 e 2.35. Voci correlate • • • • • • Root sum squared Scarto interquartile Varianza Stimatore corretto Precisione Median absolute deviation Altri progetti • Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Standard deviation Media (statistica) 73 Media (statistica) In statistica la media è un singolo valore numerico che descrive sinteticamente un insieme di dati. Esistono varie tipologie di media che possono essere scelte per descrivere un fenomeno. Quelle più comunemente impiegate sono le tre medie pitagoriche (aritmetica, geometrica, e armonica). Nel linguaggio ordinario spesso viene chiamato media il tipo che è detto media aritmetica, sottintendendo quindi il termine aritmetica. Media aritmetica Una funzione di distribuzione con evidenziate la moda, la mediana e la media La media aritmetica è il tipo di media impiegato più comunemente e quello al quale, con il termine "media", si fa in genere riferimento nel parlare comune. Viene usata per riassumere con un solo numero un insieme di dati su un fenomeno misurabile (per esempio, l'altezza media di una popolazione). Viene calcolata sommando i diversi valori a disposizione, i quali vengono divisi per il loro numero complessivo. La formula della media aritmetica semplice per n elementi è:[1] La media aritmetica ponderata (o media pesata) è una combinazione lineare convessa dei dati in analisi. Ciascun valore è moltiplicato per il proprio peso. La formula generale è: dove f rappresenta il peso di ciascun termine. Si dimostra facilmente che la media aritmetica è un indice di posizione, in quanto aggiungendo o moltiplicando tutti i valori per una stessa quantità la media stessa aumenta o è moltiplicata per quella stessa quantità. Come tutti gli indici di posizione, la media aritmetica fornisce l'ordine di grandezza dei valori esistenti e permette di conoscerne la somma dei valori (moltiplicando la media per il numero n di elementi). Oltre che in matematica, la media aritmetica è ampiamente impiegata in svariati campi, quali economia, sociologia e nella maggior parte delle discipline accademiche. Nonostante la media aritmetica sia spesso usata per fare riferimento alle tendenze, non fornisce un dato statistico robusto in quanto risente notevolmente dei valori outlier. Nelle distribuzioni simmetriche la media aritmetica può non accordarsi con il valore medio e altri indici più forti, come la mediana, forniscono una migliore descrizione della tendenza centrale. Media (statistica) 74 Esempio Dati cinque numeri: la loro media aritmetica è data da: Media ponderata Per calcolare la media ponderata di una serie di dati di cui ogni elemento proviene da una differente distribuzione di probabilità con una varianza nota, una possibile scelta per i pesi è data da: La media ponderata in questo caso è: e la varianza della media ponderata è: che si riduce a quando tutti i . Il significato di tale scelta è che questa media pesata è lo stimatore di massima verosimiglianza della media delle distribuzioni di probabilità nell'ipotesi che esse siano indipendenti e normalmente distribuite con la stessa media. Media geometrica La media geometrica di n termini è la radice n-esima del prodotto degli n valori: Sfruttando le proprietà dei logaritmi, l'espressione della media geometrica può essere resa trasformando i prodotti in somme e le potenze in prodotti: Analogamente al caso della media aritmetica, attribuendo un peso ai termini si può calcolare la media geometrica ponderata: La media geometrica può essere vista anche come media aritmetico-armonica. Definendo infatti due successioni: e convergono alla media geometrica di x e y Media (statistica) 75 Infatti le successioni convergono ad un limite comune. Si può infatti osservare che: Lo stesso ragionamento può essere applicato sostituendo le medie aritmetica e armonica con una coppia di medie generalizzate di ordine finito ed opposto. La media geometrica si applica a valori positivi. Ha un chiaro significato geometrico: ad esempio la media geometrica di due numeri è la lunghezza del lato di un quadrato equivalente ad un rettangolo che abbia i lati di modulo pari ai due numeri. Lo stesso vale in un numero di dimensioni superiore. La media geometrica trova impiego soprattutto dove i valori considerati vengono per loro natura moltiplicati tra di loro e non sommati. Esempio tipico sono i tassi di crescita, come i tassi d'interesse o i tassi d'inflazione. Una caratteristica è che valori piccoli (rispetto alla media aritmetica) sono molto più influenti dei valori grandi. In particolare, è sufficiente la presenza di un unico valore nullo per annullare la media. Esempio Dati cinque numeri: la loro media geometrica è data da: Media armonica La media armonica di n termini è definita come il reciproco della media aritmetica dei reciproci. Per praticità di calcolo si può applicare la seguente formula, ottenuta tramite le proprietà di somme e prodotti: Se a un insieme di dati è associato un insieme di pesi come: , è possibile definire la media armonica ponderata La media armonica semplice rappresenta un caso particolare, nel quale tutti i pesi hanno valore unitario. La media armonica è fortemente influenzata dagli elementi di modulo minore: rispetto alla media aritmetica risente meno dell'influenza di outlier grandi, ma è influenzata notevolmente dagli outlier piccoli. Media (statistica) 76 Esempio Dati cinque numeri: la loro media armonica è data da: Media di potenza La media di potenza (o media generalizzata o media di Hölder o media p-esima) rappresenta una generalizzazione delle medie pitagoriche. È definita come la radice p-esima della media aritmetica delle potenze di esponente p degli n valori considerati: Molte altre tipologie di media sono casi particolari della media generalizzata, per opportuni valori di p: • media aritmetica, per • • • • media geometrica, per media armonica, per media quadratica, per media cubica, per (usata soprattutto in presenza di numeri negativi per eliminare i segni) Inoltre: • • Ad ogni termine può essere associato un coefficiente detto peso, in genere rappresentato dalla frequenza oppure da un valore il quale descrive l'importanza (oggettiva o soggettiva) che il singolo elemento riveste nella distribuzione. Se ai dati in esame si assegna un insieme di pesi , tali che , è possibile definire la media pesata: Media aritmetico-geometrica La media aritmetico-geometrica (AGM) di due numeri reali positivi x e y è definita come limite comune di due successioni definite come segue. Si determinano la media aritmetica e la media geometrica di x ed y . Quindi si itera il procedimento, sostituendo ad x e ad y. In questo modo si ottengono due successioni: Le due successioni sono convergenti e hanno limite comune, detto media aritmetico-geometrica di x ed y, indicata come o talvolta come . La media geometrica di due numeri è sempre minore della media aritmetica, di conseguenza crescente, è decrescente e si ha è una successione (le disuguaglianze sono strette se x ≠ y). Media (statistica) Quindi 77 è un numero compreso fra la media aritmetica e la media geometrica di x ed y. Inoltre, dato un numero reale r ≥ 0, vale la relazione Esiste anche una espressione in forma integrale di dove : rappresenta l'integrale ellittico completo di prima specie: Inoltre, poiché la media aritmetico-geometrica converge piuttosto rapidamente, la formula precedente è utile anche nel calcolo degli integrali ellittici. Il reciproco della media aritmetico-geometrica di 1 e è chiamata costante di Gauss, in onore del matematico tedesco Carl Friedrich Gauss. Media integrale Una generalizzazione del concetto di media a distribuzioni continue prevede l'uso di integrali. Supponiamo di avere una funzione , integrabile. Allora si può definire la media come: Data inoltre una funzione tale che , detta peso, si può definire la media integrale pesata come: Più in generale data una funzione integrazione, si definisce la media dove è un insieme sul quale è definita una funzione di come: Media temporale La media temporale, spesso usata nella trattazione di segnali, è chiamata componente continua. Si tratta della media integrale calcolata in un intervallo di tempo tendente all'infinito. . per: Media (statistica) 78 Note [1] (EN) IUPAC Gold Book, "arithmetic mean (average)" (http:/ / goldbook. iupac. org/ A00440. html) Voci correlate • • • • • • Valore atteso Varianza Covarianza Momento (statistica) Trimmed mean Disuguaglianza delle medie Collegamenti esterni • Calcolo della media pesata (http://stat.altervista.org) - Sito italiano che permette di eseguire online il calcolo della media, anche pesata, di una serie di dati. • Calcolo Media Ponderata (http://lamediaponderata.altervista.org)- Sito italiano che permette di calcolare la media ponderata on-line. In specifico per l'Università. Distribuzione normale Variabile casuale normale (o di Gauss) Funzione di densità La linea in verde si riferisce alla variabile casuale normale standardizzata Distribuzione normale 79 Funzione di ripartizione I colori corrispondono a quelli delle densità della figura precedente Parametri , Supporto Funzione di densità Funzione di ripartizione Valore atteso Mediana Moda Varianza Skewness Curtosi Entropia Funz. Gen. dei Momenti Funz. Caratteristica In teoria della probabilità la distribuzione normale, o di Gauss (o gaussiana) dal nome del matematico tedesco Carl Friederich Gauss, è una distribuzione di probabilità continua che è spesso usata come prima approssimazione per descrivere variabili casuali a valori reali che tendono a concentrarsi attorno a un singolo valor medio. Il grafico della funzione di densità di probabilità associata è simmetrico ed a forma di campana, nota come Campana di Gauss (o anche come curva degli errori, curva a campana, ogiva). La distribuzione normale è considerata il caso base delle distribuzioni di probabilità continue a causa del suo ruolo nel teorema del limite centrale. Più specificamente, assumendo certe condizioni, la somma di n variabili casuali con media e varianza finite tende a una distribuzione normale al tendere di n all'infinito. Grazie a questo teorema, la distribuzione normale si incontra spesso nelle applicazioni pratiche, venendo usata in statistica e nelle scienze naturali e sociali[1] come un semplice modello per fenomeni complessi. La distribuzione normale dipende da due parametri, la media μ e la varianza σ2, ed indicata tradizionalmente con: Distribuzione normale 80 Metodologia La distribuzione normale è caratterizzata dalla seguente funzione di densità di probabilità, cui spesso si fa riferimento con la dizione curva di Gauss o gaussiana: . Dove è il valore atteso e Per dimostrare che la varianza. è effettivamente una funzione di densità di probabilità si ricorre innanzi tutto alla standardizzazione (statistica) della variabile casuale, cioè alla trasformazione tale per cui risulta: , dove la variabile risultante ha anch'essa distribuzione normale con parametri . L'integrale della funzione di densità di probabilità della variabile casuale standardizzata Dato che deve necessariamente valere la condizione dove anche la variabile casuale , allora risulta anche e è il seguente: quindi: ha distribuzione normale standardizzata. Per risolvere questo integrale doppio si ricorre alle coordinate polari e , dove e . La matrice Jacobiana della trasformazione è , il cui determinante è pari a . Sostituendo nell'integrale di cui sopra si ottiene: La sua funzione generatrice dei momenti è Il valore atteso e la varianza (che sono gli unici due parametri di questa variabile casuale) sono appunto μ e σ². Non essendo possibile esprimere l'integrale della in forma chiusa mediante funzioni elementari, è necessario rendere disponibili in forma tabellare i valori della sua funzione di ripartizione. I più usati sono: 68,3% 95,0% 95,5% 99,0% 99,7% Essendo = = = = = P{ P{ P{ P{ P{ μ μ μ μ μ - σ 1,96 σ 2 σ 2,58 σ 3 σ < < < < < X X X X X < < < < < μ μ μ μ μ + + + + + σ 1,96 σ 2 σ 2,58 σ 3 σ } } } } } una funzione simmetrica è sufficiente conoscere la funzione di ripartizione dei valori positivi, per conoscere pure quella dei valori negativi (e viceversa). Dalla variabile casuale Normale si possono ottenere altre variabili casuali, come la t di Student, la Chi Quadrato e la F di Snedecor, nonché le loro "varianti" non centrali (t non centrale, chi quadrato non centrale e F non centrale). Distribuzione normale Teoremi Combinazione lineare di variabili gaussiane Se X1, X2, ..., Xn sono n variabili casuali Normali tra di loro indipendenti, ciascuna con valore atteso μi e varianza σ²i, allora la variabile casuale Y = α1X1 + α2X2 + ... + αnXn è a sua volta una variabile casuale Normale con valore atteso μ = α1μ1 + α2μ2 + ... + αnμn e varianza σ² = α²1σ²1 + α²2σ²2 + ... + α²nσ²n Altri teoremi: Teorema di Cochran Relazioni con altre variabili casuali La Normale come derivazione da altre voci I teoremi del limite centrale sono una famiglia di teoremi che hanno in comune l'affermazione che la somma (normalizzata) di un grande numero di variabili casuali è distribuita approssimativamente come una variabile casuale normale. Se X è distribuita come una variabile casuale binomiale con n molto grande (per dare un'idea di quanto grande, possiamo dire che deve essere n>30), e approssimativamente np>10, allora la binomiale può essere approssimata con una Normale con valore atteso pari a np e varianza uguale a npq: N( np ; npq). Se X è distribuita come una variabile casuale poissoniana con il parametro λ molto grande (orientativamente λ > 10), allora la Poissoniana può essere approssimata con una Normale con valore atteso e varianza pari a λ: N( λ ; λ). Variabili casuali derivate dalla Normale Date n distribuzioni normali Z1(0;1); Z2(0;1); ... Zn(0;1) con media nulla e varianza unitaria indipendenti tra loro. allora χ²n= Z1² + Z2² + .... +Zn² è una Variabile casuale chi quadro con n gradi di libertà. Siano Z1, Z2, Z3..., Zn variabili casuali indipendenti distribuite come una Normale con media nulla e varianza unitaria, e siano inoltre a1, a2, a3..., an delle costanti tali che allora si indica con χ'² la v.c. chi quadro non centrale con n gradi di libertà costruita come 81 Distribuzione normale 82 Se Z~N(0;1) e X~χ²n, allora T=Z/√X/n è distribuita come una t di Student con n gradi di libertà. Se Z~N(0;1) e allora T è una v.c. di Birnbaum-Saunders con i parametri e . La normale nell'inferenza bayesiana Variabile casuale Gamma come priori coniugati della normale Nell'ambito dell'inferenza bayesiana si trova la seguente relazione tra la normale e la variabile casuale Gamma. Se X è distribuita come una variabile casuale normale con parametri μ e 1/θ ed il parametro θ è distribuito a priori come una variabile casuale Gamma con i parametri a e b allora il parametro θ è distribuito a posteriori anch'esso come una variabile casuale Gamma, ma con parametri a+1/2 e b+(μ-x)2/2 Priori coniugati normale di una normale Se X è distribuita come una v.c. normale con parametri m e σ2 e il parametro m è distribuito a priori come una v.c. normale con i parametri μ e σ2 allora il parametro m è distribuito a posteriori anch'esso come una v.c. Normale, ma con parametri e Cenni storici Karl Friedrich Gauss descrisse la Normale studiando il moto dei corpi celesti. Altri la usavano per descrivere fenomeni anche molto diversi come i colpi di sfortuna nel gioco d'azzardo o la distribuzione dei tiri attorno ai bersagli. Da qui i nomi curva di Gauss e curva degli errori: Nel 1835 Lambert-Adolphe-Jacques Quételet pubblicò uno scritto nel quale, fra le altre cose, c'erano i dati riguardanti la misura del torace di soldati scozzesi e la statura dei militari di leva francesi. Quételet mostrò come tali dati si distribuivano come una Gaussiana, ma non andò oltre. Fu Francis Galton a intuire che la curva in questione, da lui detta anche ogiva, poteva essere applicata a fenomeni anche molto diversi, e non solo ad "errori". Questa idea di curva per descrivere i "dati" in generale portò ad usare il termine Normale, in quanto rappresentava un substrato normale ovvero la norma per qualsiasi distribuzione presente in natura. Nel tentativo di confrontare curve diverse, Galton - in mancanza di strumenti adeguati - si limitò ad usare due soli parametri: la media e la varianza, dando così inizio alla statistica parametrica. Distribuzione normale 83 Note [1] Gale Encyclopedia of Psychology — Normal Distribution (http:/ / findarticles. com/ p/ articles/ mi_g2699/ is_0002/ ai_2699000241) Voci correlate • • • • • • • • • • • • • Statistica Statistica parametrica Parametro (statistica) Funzione di ripartizione della variabile casuale normale Carl Friedrich Gauss v.c. binomiale e poissoniana v.c. χ², t di Student, F di Snedecor Variabile casuale, variabile casuale continua Probabilità Integrale di Gauss, integrale di Eulero (vedi anche Pierre Simon Laplace) Funzione gaussiana Teorema di Cochran Test di Shapiro-Wilk, test statistico per la verifica di normalità di un insieme di valori • Normale Altri progetti • Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Normal distribution Funzione di ripartizione della variabile casuale normale Funzione di ripartizione standardizzata della variabile casuale normale cioè con media zero e deviazione standard pari a uno, per valori non negativi (essendo la funzione simmetrica). Nota che il valore indicato nella casella (X,Y) rappresenta l'area sottesa dalla funzione gaussiana da "meno infinito" a "X+Y", dove X e Y rappresentano l'intestazione di riga e colonna. Fonte: valori calcolati con la funzione pnorm(z) di R (software) Funzione di densità Funzione di ripartizione della variabile casuale normale z .00 .01 .02 .03 84 .04 .05 .06 .07 .08 .09 0.0 .5000 .5040 .5080 .5120 .5160 .5199 .5239 .5279 .5319 .5359 0.1 .5398 .5438 .5478 .5517 .5557 .5596 .5636 .5675 .5714 .5753 0.2 .5793 .5832 .5871 .5910 .5948 .5987 .6026 .6064 .6103 .6141 0.3 .6179 .6217 .6255 .6293 .6331 .6368 .6406 .6443 .6480 .6517 0.4 .6554 .6591 .6628 .6664 .6700 .6736 .6772 .6808 .6844 .6879 0.5 .6915 .6950 .6985 .7019 .7054 .7088 .7123 .7157 .7190 .7224 0.6 .7257 .7291 .7324 .7357 .7389 .7422 .7454 .7486 .7517 .7549 0.7 .7580 .7611 .7642 .7673 .7704 .7734 .7764 .7794 .7823 .7852 0.8 .7881 .7910 .7939 .7967 .7995 .8023 .8051 .8078 .8106 .8133 0.9 .8159 .8186 .8212 .8238 .8264 .8289 .8315 .8340 .8365 .8389 1.0 .8413 .8438 .8461 .8485 .8508 .8531 .8554 .8577 .8599 .8621 1.1 .8643 .8665 .8686 .8708 .8729 .8749 .8770 .8790 .8810 .8830 1.2 .8849 .8869 .8888 .8907 .8925 .8944 .8962 .8980 .8997 .9015 1.3 .9032 .9049 .9066 .9082 .9099 .9115 .9131 .9147 .9162 .9177 1.4 .9192 .9207 .9222 .9236 .9251 .9265 .9279 .9292 .9306 .9319 1.5 .9332 .9345 .9357 .9370 .9382 .9394 .9406 .9418 .9429 .9441 1.6 .9452 .9463 .9474 .9484 .9495 .9505 .9515 .9525 .9535 .9545 1.7 .9554 .9564 .9573 .9582 .9591 .9599 .9608 .9616 .9625 .9633 1.8 .9641 .9649 .9656 .9664 .9671 .9678 .9686 .9693 .9699 .9706 1.9 .9713 .9719 .9726 .9732 .9738 .9744 .9750 .9756 .9761 .9767 2.0 .9772 .9778 .9783 .9788 .9793 .9798 .9803 .9808 .9812 .9817 2.1 .9821 .9826 .9830 .9834 .9838 .9842 .9846 .9850 .9854 .9857 2.2 .9861 .9864 .9868 .9871 .9875 .9878 .9881 .9884 .9887 .9890 2.3 .9893 .9896 .9898 .9901 .9904 .9906 .9909 .9911 .9913 .9916 2.4 .9918 .9920 .9922 .9925 .9927 .9929 .9931 .9932 .9934 .9936 2.5 .9938 .9940 .9941 .9943 .9945 .9946 .9948 .9949 .9951 .9952 2.6 .9953 .9955 .9956 .9957 .9959 .9960 .9961 .9962 .9963 .9964 2.7 .9965 .9966 .9967 .9968 .9969 .9970 .9971 .9972 .9973 .9974 2.8 .9974 .9975 .9976 .9977 .9977 .9978 .9979 .9979 .9980 .9981 2.9 .9981 .9982 .9982 .9983 .9984 .9984 .9985 .9985 .9986 .9986 3.0 .9987 .9987 .9987 .9988 .9988 .9989 .9989 .9989 .9990 .9990 3.1 .9990 .9991 .9991 .9991 .9992 .9992 .9992 .9992 .9993 .9993 3.2 .9993 .9993 .9994 .9994 .9994 .9994 .9994 .9995 .9995 .9995 3.3 .9995 .9995 .9995 .9996 .9996 .9996 .9996 .9996 .9996 .9997 3.4 .9997 .9997 .9997 .9997 .9997 .9997 .9997 .9997 .9997 .9998 3.5 .9998 .9998 .9998 .9998 .9998 .9998 .9998 .9998 .9998 .9998 3.6 .9998 .9998 .9999 .9999 .9999 .9999 .9999 .9999 .9999 .9999 Funzione di ripartizione della variabile casuale normale 85 Poiché la normale non è integrabile con metodi elementari per sapere la probabilità di un intervallo bisogna ricondurre la propria normale a quella standard e cercare il valore standardizzato nella tabella. Per ricondursi alla forma standard bisogna porre Dove è la media e la deviazione standard (o scarto quadratico medio). L'integrale della normale standard è: oppure: dove erf è la funzione degli errori. Distribuzione t di Student distribuzione Funzione di densità di probabilità Funzione di ripartizione Parametri (gradi di libertà) Supporto Funzione di densità Funzione di ripartizione dove è la funzione Beta Distribuzione t di Student 86 Valore atteso se non definita altrimenti Mediana Moda Varianza se infinita altrimenti Skewness se non definita altrimenti Curtosi se infinita altrimenti Entropia dove è la funzione digamma e è la funzione Beta Funz. Gen. dei Momenti Funz. Caratteristica [1] dove è una funzione di Bessel In teoria delle probabilità la distribuzione di Student, o t di Student, è una distribuzione di probabilità continua che governa il rapporto tra due variabili aleatorie, la prima con distribuzione normale e la seconda il cui quadrato ha distribuzione chi quadrato. Questa distribuzione interviene nella stima della media di una popolazione che segue la distribuzione normale, e viene utilizzata negli omonimi test t di Student per la significatività e per ogni intervallo di confidenza della differenza tra due medie. Cenni storici La distribuzione venne descritta nel 1908 da William Sealy Gosset, che pubblicò il suo risultato sotto lo pseudonimo "Student" perché la fabbrica di birra presso la quale era impiegato vietava ai propri dipendenti di pubblicare articoli affinché questi non divulgassero segreti di produzione. Il nome distribuzione di Student venne successivamente introdotto da Ronald Fisher.[2][3] Definizione La distribuzione di Student con parametro n (gradi di libertà) governa la variabile aleatoria dove standard e sono due variabili aleatorie indipendenti che seguono rispettivamente la distribuzione normale e la distribuzione chi quadrato con n gradi di libertà. Distribuzione t di Student 87 Stimatore La media e la varianza di una popolazione possono essere stimate tramite un suo campione di taglia n, con gli stimatori , . La variabile aleatoria segue una distribuzione normale standard, , mentre la variabile aleatoria segue una distribuzione chi quadrato con n-1 gradi di libertà, . Le due variabili aleatorie sono indipendenti, per il teorema di Cochran. Senza conoscere la varianza non è possibile confrontare gli stimatori e con e , che hanno distribuzioni di probabilità note. Ciononostante la variabile aleatoria (ottenuta "sostituendo" a nella definizione di ) segue la distribuzione di Student con n-1 gradi di libertà. Caratteristiche La distribuzione di Student con n gradi di libertà è simmetrica, perché lo è la distribuzione normale standard mentre la distribuzione chi quadrato che funge da "parametro casuale di scala" non produce effetti di distorsione di tale simmetria. La sua funzione di densità di probabilità è , dove indica la funzione Gamma e la funzione Beta. La sua funzione di ripartizione è , dove è la funzione Beta incompleta regolarizzata e . Per i momenti (semplici o centrali) di ordine k della distribuzione sono se è dispari, se è pari. Distribuzione t di Student 88 In particolare, oltre alla speranza matematica e all'indice di asimmetria (per ) predetti dalla simmetria della distribuzione, si trovano: la varianza per ; l'indice di curtosi per . Statistica Intervallo di confidenza La distribuzione di Student viene utilizzata per definire degli intervalli di confidenza per la media di una popolazione, sulla base degli stimatori puntuali e della sua media e della sua varianza. Dall'equazione si ha infatti . Scegliendo quindi dei quantili per la distribuzione di Student con n gradi di libertà, si ha , cioè un intervallo di confidenza per la media con livello di confidenza è: . Qualora si considerino intervalli simmetrici si può utilizzare l'indice definito da , ovvero , e si ottiene l'intervallo di confidenza per con livello di confidenza . Altre distribuzioni La distribuzione di Student con parametro corrisponde alla distribuzione di Cauchy di parametri : entrambe regolano il rapporto tra due variabili aleatorie indipendenti aventi distribuzione normale standard. Al tendere di n a infinito la distribuzione di Student con n gradi di libertà converge alla distribuzione normale standard . Se è una variabile aleatoria con distribuzione t di Student di parametro distribuzione di Fisher-Snedecor di parametri . , allora segue la Distribuzione t di Student 89 Tabella dei quantili La seguente tabella[4] esprime, in funzione del parametro n (riga) e di particolari valori di per la distribuzione di Student di parametro n: . L'ultima riga, indicata con " ", si riferisce ad una distribuzione normale standard. n\α 0.90 0.95 0.975 0.99 0.995 0.9975 0.999 0.9995 1 3.078 6.314 12.706 31.821 63.657 127.321 318.309 636.619 2 1.886 2.920 4.303 6.965 9.925 14.089 22.327 31.599 3 1.638 2.353 3.182 4.541 5.841 7.453 10.215 12.924 4 1.533 2.132 2.776 3.747 4.604 5.598 7.173 8.610 5 1.476 2.015 2.571 3.365 4.032 4.773 5.893 6.869 6 1.440 1.943 2.447 3.143 3.707 4.317 5.208 5.959 7 1.415 1.895 2.365 2.998 3.499 4.029 4.785 5.408 8 1.397 1.860 2.306 2.896 3.355 3.833 4.501 5.041 9 1.383 1.833 2.262 2.821 3.250 3.690 4.297 4.781 10 1.372 1.812 2.228 2.764 3.169 3.581 4.144 4.587 11 1.363 1.796 2.201 2.718 3.106 3.497 4.025 4.437 12 1.356 1.782 2.179 2.681 3.055 3.428 3.930 4.318 13 1.350 1.771 2.160 2.650 3.012 3.372 3.852 4.221 14 1.345 1.761 2.145 2.624 2.977 3.326 3.787 4.140 15 1.341 1.753 2.131 2.602 2.947 3.286 3.733 4.073 16 1.337 1.746 2.120 2.583 2.921 3.252 3.686 4.015 17 1.333 1.740 2.110 2.567 2.898 3.222 3.646 3.965 18 1.330 1.734 2.101 2.552 2.878 3.197 3.610 3.922 19 1.328 1.729 2.093 2.539 2.861 3.174 3.579 3.883 20 1.325 1.725 2.086 2.528 2.845 3.153 3.552 3.850 21 1.323 1.721 2.080 2.518 2.831 3.135 3.527 3.819 22 1.321 1.717 2.074 2.508 2.819 3.119 3.505 3.792 23 1.319 1.714 2.069 2.500 2.807 3.104 3.485 3.768 24 1.318 1.711 2.064 2.492 2.797 3.091 3.467 3.745 25 1.316 1.708 2.060 2.485 2.787 3.078 3.450 3.725 26 1.315 1.706 2.056 2.479 2.779 3.067 3.435 3.707 27 1.314 1.703 2.052 2.473 2.771 3.057 3.421 3.690 28 1.313 1.701 2.048 2.467 2.763 3.047 3.408 3.674 29 1.311 1.699 2.045 2.462 2.756 3.038 3.396 3.659 30 1.310 1.697 2.042 2.457 2.750 3.030 3.385 3.646 40 1.303 1.684 2.021 2.423 2.704 2.971 3.307 3.551 50 1.299 1.676 2.009 2.403 2.678 2.937 3.261 3.496 60 1.296 1.671 2.000 2.390 2.660 2.915 3.232 3.460 (colonna), i quantili Distribuzione t di Student 90 100 1.290 1.660 1.984 2.364 2.626 2.871 3.174 3.390 1.282 1.645 1.960 2.326 2.576 2.807 3.090 3.291 Note [1] Hurst, Simon, The Characteristic Function of the Student-t Distribution (http:/ / wwwmaths. anu. edu. au/ research. reports/ srr/ 95/ 044/ ), Financial Mathematics Research Report No. FMRR006-95, Statistics Research Report No. SRR044-95 [2] Student (William Sealy Gosset) (Marzo 1908). The probable error of a mean (http:/ / www. york. ac. uk/ depts/ maths/ histstat/ student. pdf). Biometrika 6 (1): 1–-25 (in (EN)). DOI: 10.1093/biomet/6.1.1 (http:/ / dx. doi. org/ 10. 1093/ biomet/ 6. 1. 1). [3] Ronald Fisher (1925). Applications of "Student's" distribution (http:/ / digital. library. adelaide. edu. au/ coll/ special/ fisher/ 43. pdf). Metron 5: 90-–104 (in (EN)). [4] Valori critici calcolati con la funzione qt(p,g) di R. Voci correlate • • • • • Distribuzione chi quadrato Distribuzione normale Test di verifica d'ipotesi Test t William Sealy Gosset Altri progetti • Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Student's t-distribution Collegamenti esterni • Il test di Student (http://www.dti.unimi.it/fscotti/ita/md_biotec_estrazione/allegati/Student.pdf) di F. Scotti. • (EN) Eric W. Weisstein, Distribuzione t di Student (http://mathworld.wolfram.com/Studentst-Distribution. html) su MathWorld. Distribuzione chi quadrato 91 Distribuzione chi quadrato Distribuzione Funzione di densità di probabilità Funzione di ripartizione Parametri (gradi di libertà) Supporto Funzione di densità Funzione di ripartizione Valore atteso Mediana Moda Varianza Skewness Curtosi Entropia circa Distribuzione chi quadrato 92 Funz. Gen. dei Momenti per Funz. Caratteristica In teoria delle probabilità una distribuzione (chi quadrato o chi quadro) è una distribuzione di probabilità che descrive la somma dei quadrati di alcune variabili aleatorie indipendenti aventi distribuzione normale standard. In statistica viene particolarmente utilizzata per l'omonimo test di verifica d'ipotesi (test χ2). Definizione La distribuzione descrive la variabile aleatoria , dove sono variabili aleatorie indipendenti con distribuzione normale standard . Il parametro k è detto numero di gradi di libertà. Storia Ernst Abbe (1840-1905), un ottico, fu colui che scoprì la χ² analizzando la sommatoria di variabili casuali normali standardizzate e indipendenti, che produce una nuova variabile casuale, la χ² appunto.[1] Proprietà Somma Per definizione, la somma di due variabili aleatorie indipendenti con distribuzioni χ2(m) e χ2(n) è una variabile aleatoria con distribuzione χ2(m+n): Più in generale la somma di variabili aleatorie indipendenti con distribuzioni χ2(k1), ..., χ2(kn), è una variabile aleatoria con distribuzione χ2(k1+...+kn). Caratteristiche Una generalizzazione della distribuzione χ2 è la distribuzione Gamma: In particolare una variabile aleatoria con distribuzione ha • funzione di densità di probabilità per x>0, dove Γ indica la funzione Gamma, che qui assume i valori con !! che indica il doppio fattoriale; • funzione di ripartizione , dove γ è la funzione • valore atteso ; • varianza ; • simmetria: • curtosi: • moda: . , Distribuzione chi quadrato 93 Limite centrale Per il teorema del limite centrale la distribuzione χ2(k) converge ad una distribuzione normale per k che tende a infinito. Più precisamente, se segue la distribuzione χ2, allora la distribuzione di tende alla distribuzione normale standard . Per avere una convergenza più rapida talvolta vengono prese o . Generalizzazioni La distribuzione χ2 è un caso particolare della legge Γ e ricade nella terza famiglia di distribuzioni di Pearson. La distribuzione χ2 non centrale è data dalla somma dei quadrati di variabili aleatorie indipendenti distribuzioni normali ridotte, ma non necessariamente centrate, aventi : Un'altra generalizzazione prevede di considerare una forma quadratica sul vettore aleatorio . Utilizzo in statistica In statistica la distribuzione χ2 viene utilizzata per condurre il test di verifica d'ipotesi χ2 e per stimare una varianza, ed è legato alle distribuzioni distribuzione t di Student e distribuzione F di Fisher-Snedecor. Il caso più comune è quello di varibili aleatorie indipendenti di legge normale e media , dove lo stimatore della varianza segue la distribuzione . Per valori di k superiori a 30 (o a 50) la legge χ2 viene approssimata con una legge normale. Tabella dei valori critici La seguente tabella illustra alcuni valori critici più comunemente utilizzati. In corrispondenza dei valori k sulla riga e α sulla colonna si trova il valore critico , ovvero il valore per il quale una variabile aleatoria x2 di legge χ2(k) verifica . Distribuzione chi quadrato 94 k 0.001 \ α 0.002 0.005 0.01 0.02 0.05 0.1 0.2 0.5 0.75 0.8 0.9 0.95 0.98 0.99 0.995 0.998 0.999 1 0.000 0.000 0.000 0.000 0.001 0.004 0.016 0.064 0.455 1.323 1.642 2.706 3.841 5.412 6.635 7.879 9.550 10.828 2 0.002 0.004 0.010 0.020 0.040 0.103 0.211 0.446 1.386 2.773 3.219 4.605 5.991 7.824 9.210 10.597 12.429 13.816 3 0.024 0.039 0.072 0.115 0.185 0.352 0.584 1.005 2.366 4.108 4.642 6.251 7.815 9.837 11.345 12.838 14.796 16.266 4 0.091 0.129 0.207 0.297 0.429 0.711 1.064 1.649 3.357 5.385 5.989 7.779 9.488 11.668 13.277 14.860 16.924 18.467 5 0.210 0.280 0.412 0.554 0.752 1.145 1.610 2.343 4.351 6.626 7.289 9.236 11.070 13.388 15.086 16.750 18.907 20.515 6 0.381 0.486 0.676 0.872 1.134 1.635 2.204 3.070 5.348 7.841 8.558 10.645 12.592 15.033 16.812 18.548 20.791 22.458 7 0.598 0.741 0.989 1.239 1.564 2.167 2.833 3.822 6.346 9.037 9.803 12.017 14.067 16.622 18.475 20.278 22.601 24.322 8 0.857 1.038 1.344 1.646 2.032 2.733 3.490 4.594 7.344 10.219 11.030 13.362 15.507 18.168 20.090 21.955 24.352 26.124 9 1.152 1.370 1.735 2.088 2.532 3.325 4.168 5.380 8.343 11.389 12.242 14.684 16.919 19.679 21.666 23.589 26.056 27.877 10 1.479 1.734 2.156 2.558 3.059 3.940 4.865 6.179 9.342 12.549 13.442 15.987 18.307 21.161 23.209 25.188 27.722 29.588 11 1.834 2.126 2.603 3.053 3.609 4.575 5.578 6.989 10.341 13.701 14.631 17.275 19.675 22.618 24.725 26.757 29.354 31.264 12 2.214 2.543 3.074 3.571 4.178 5.226 6.304 7.807 11.340 14.845 15.812 18.549 21.026 24.054 26.217 28.300 30.957 32.909 13 2.617 2.982 3.565 4.107 4.765 5.892 7.042 8.634 12.340 15.984 16.985 19.812 22.362 25.472 27.688 29.819 32.535 34.528 14 3.041 3.440 4.075 4.660 5.368 6.571 7.790 9.467 13.339 17.117 18.151 21.064 23.685 26.873 29.141 31.319 34.091 36.123 15 3.483 3.916 4.601 5.229 5.985 7.261 8.547 10.307 14.339 18.245 19.311 22.307 24.996 28.259 30.578 32.801 35.628 37.697 16 3.942 4.408 5.142 5.812 6.614 7.962 9.312 11.152 15.338 19.369 20.465 23.542 26.296 29.633 32.000 34.267 37.146 39.252 17 4.416 4.915 5.697 6.408 7.255 8.672 10.085 12.002 16.338 20.489 21.615 24.769 27.587 30.995 33.409 35.718 38.648 40.790 18 4.905 5.436 6.265 7.015 7.906 9.390 10.865 12.857 17.338 21.605 22.760 25.989 28.869 32.346 34.805 37.156 40.136 42.312 19 5.407 5.969 6.844 7.633 8.567 10.117 11.651 13.716 18.338 22.718 23.900 27.204 30.144 33.687 36.191 38.582 41.610 43.820 20 5.921 6.514 7.434 8.260 9.237 10.851 12.443 14.578 19.337 23.828 25.038 28.412 31.410 35.020 37.566 39.997 43.072 45.315 21 6.447 7.070 8.034 8.897 9.915 11.591 13.240 15.445 20.337 24.935 26.171 29.615 32.671 36.343 38.932 41.401 44.522 46.797 22 6.983 7.636 8.643 9.542 10.600 12.338 14.041 16.314 21.337 26.039 27.301 30.813 33.924 37.659 40.289 42.796 45.962 48.268 23 7.529 8.212 9.260 10.196 11.293 13.091 14.848 17.187 22.337 27.141 28.429 32.007 35.172 38.968 41.638 44.181 47.391 49.728 24 8.085 8.796 9.886 10.856 11.992 13.848 15.659 18.062 23.337 28.241 29.553 33.196 36.415 40.270 42.980 45.559 48.812 51.179 25 8.649 9.389 10.520 11.524 12.697 14.611 16.473 18.940 24.337 29.339 30.675 34.382 37.652 41.566 44.314 46.928 50.223 52.620 26 9.222 9.989 11.160 12.198 13.409 15.379 17.292 19.820 25.336 30.435 31.795 35.563 38.885 42.856 45.642 48.290 51.627 54.052 27 9.803 10.597 11.808 12.879 14.125 16.151 18.114 20.703 26.336 31.528 32.912 36.741 40.113 44.140 46.963 49.645 53.023 55.476 28 10.391 11.212 12.461 13.565 14.847 16.928 18.939 21.588 27.336 32.620 34.027 37.916 41.337 45.419 48.278 50.993 54.411 56.892 29 10.986 11.833 13.121 14.256 15.574 17.708 19.768 22.475 28.336 33.711 35.139 39.087 42.557 46.693 49.588 52.336 55.792 58.301 30 11.588 12.461 13.787 14.953 16.306 18.493 20.599 23.364 29.336 34.800 36.250 40.256 43.773 47.962 50.892 53.672 57.167 59.703 35 14.688 15.686 17.192 18.509 20.027 22.465 24.797 27.836 34.336 40.223 41.778 46.059 49.802 54.244 57.342 60.275 63.955 66.619 40 17.916 19.032 20.707 22.164 23.838 26.509 29.051 32.345 39.335 45.616 47.269 51.805 55.758 60.436 63.691 66.766 70.618 73.402 45 21.251 22.477 24.311 25.901 27.720 30.612 33.350 36.884 44.335 50.985 52.729 57.505 61.656 66.555 69.957 73.166 77.179 80.077 50 24.674 26.006 27.991 29.707 31.664 34.764 37.689 41.449 49.335 56.334 58.164 63.167 67.505 72.613 76.154 79.490 83.657 86.661 Distribuzione chi quadrato 95 Derivazione Derivazione della funzione di densità per un grado di libertà Sia y = x2, dove x è una variabile casuale normalmente distribuita con media nulla e varianza unitaria (x ~ N(0,1)). Allora, se , mentre, . dove e sono, rispettivamente, la funzione di densità e la funzione di probabilità cumulata. Si ha quindi: . Derivazione della funzione di densità per due gradi libertà È possibile derivare la distribuzione con 2 gradi di libertà partendo da quella con un grado. Siano x e y due variabili casuali indipendenti tali che e . Dall'assunto di indipendenza segue che la loro funzione di probabilità congiunta è: Siano e , abbiamo che: o Data la simmetria, possiamo prendere la prima coppia di soluzioni e moltiplicare il risultato per 2. Lo jacobiano è: Possiamo quindi passare da La distribuzione marginale di a : è quindi: se Distribuzione chi quadrato 96 Ponendo , l'equazione diventa: da cui: Derivazione della funzione di densità per k gradi di libertà Un campione di k realizzazioni di una variabile normale standard è rappresentabile come un punto in uno spazio k-dimensionale. La distribuzione della somma dei quadrati sarà: dove è la funzione di densità di una distribuzione normale standard e è una superficie k-1-dimensionale nello spazio k-dimensionale per cui vale: Tale superficie è una sfera k-1 dimensionale con raggio . Poiché Q è costante, può essere portato fuori dall'integrale: L'integrale non è altro che l'area A della sfera moltiplicata per lo spessore infinitesimo della stessa, ovvero: . Sostituendo, notando che da cui: , e semplificando otteniamo infine: Distribuzione chi quadrato 97 Note [1] Un documento (http:/ / www. jstor. org/ pss/ 2334525) riguardo al lavoro di Abbe Voci correlate • • • • • • • • • Distribuzione chi quadrato non centrale Distribuzione F di Snedecor Distribuzione normale Distribuzione t di Student Ernst Abbe Teorema centrale del limite Test chi quadro Variabili indipendenti Varianza Distribuzione di Fisher-Snedecor Distribuzione di Fisher-Snedecor Funzione di densità di probabilità i parametri m ed n sono indicati come d1 e d2 Funzione di ripartizione i parametri m ed n sono indicati come d1 e d2 Distribuzione di Fisher-Snedecor 98 Parametri (gradi di libertà) Supporto Funzione di densità con la funzione Beta) (con la funzione Beta incompleta regolarizzata) Funzione di ripartizione Valore atteso se infinita altrimenti Mediana Moda se se Varianza per non definita altrimenti Skewness Curtosi Entropia Funz. Gen. dei Momenti Funz. Caratteristica In teoria delle probabilità la distribuzione di Fisher-Snedecor, o F di Snedecor, è una distribuzione di probabilità continua che regola il rapporto "riscalato" tra due variabili aleatorie che seguono due distribuzioni . Viene impiegata nell'analisi della varianza e in generale per l'omonimo test F. Prende il nome dai matematici George W. Snedecor (statunitense) e Ronald Fisher (britannico). Definizione La distribuzione di Fisher-Snedecor con parametri i numeri naturali governa la variabile aleatoria , dove e e sono variabili aleatorie con rispettive distribuzioni chi quadrato con . ed gradi di libertà, Distribuzione di Fisher-Snedecor 99 Caratteristiche La distribuzione di Fisher-Snedecor di parametri ha funzione di densità di probabilità , dove è la funzione Beta. La sua funzione di ripartizione è data dalla funzione Beta incompleta regolarizzata, . La distribuzione ha momenti semplici di ordine infiniti per , altrimenti pari a . In particolare ha • speranza matematica pari a • varianza pari a • indice di asimmetria pari a • indice di curtosi pari a La sua moda è se e se . Altre distribuzioni Per definizione, se una variabile aleatoria , allora la sua inversa segue la distribuzione di Fisher-Sneecor di parametri segue la distribuzione di Fisher-Snedecor di parametri . Questa relazione permette di esprimere i quantili di una distribuzione in termini dei quantili dell'altra: . Una generalizzazione di questa distribuzione è la distribuzione di Fisher-Snedecor non centrale, per la quale la variabile aleatoria nella definizione di può seguire una distribuzione chi quadrato non centrale. Se è una variabile aleatoria con distribuzione t di Student di parametro di Fisher-Snedecor di parametri Se , allora . è una variabile aleatoria con distribuzione di Hotelling di parametri la distribuzione di Fisher-Snedecor di parametri Se la variabile aleatoria segue la distribuzione Beta segue la distribuzione . segue la distribuzione di Fisher-Snedecor di parametri . , allora , allora segue Distribuzione di Fisher-Snedecor Voci correlate • Analisi della varianza • Distribuzione chi quadrato • Funzione Beta di Eulero Collegamenti esterni (EN) Eric W. Weisstein, Distribuzione di Fisher-Snedecor [1] su MathWorld. Note [1] http:/ / mathworld. wolfram. com/ SnedecorsF-Distribution. html 100 101 Cima Coppi Disuguaglianza di Čebyšëv La disuguaglianza di Čebyšëv è usata soprattutto nell'ambito della teoria probabilistica e più raramente nell'ambito di serie di dati reali. La disuguaglianza venne pubblicata la prima volta nel 1853 da Irenée-Jules Bienaymé e riscoperta indipendentemente da Pafnutij L'vovič Čebyšëv alcuni anni dopo (pertanto viene anche citata come disuguaglianza di Bienaymé-Čebyšëv). Nell'ambito della variabili stocastiche (v.s.) afferma che se la v.s. X ha valore atteso μ e la varianza σ² e λ è un reale positivo, allora la probabilità che X assuma un valore compreso tra μ-λσ e μ+λσ è maggiore di 1-1/λ². In altre parole afferma che, dato un carattere di cui sono noti solamente media aritmetica e deviazione standard , possiamo conoscere la frequenza relativa massima delle unità che possono avere valori esterni a un intervallo simmetrico rispetto alla media aritmetica. In altri termini questo teorema ci assicura che, indipendentemente dalla distribuzione della variabile casuale, la probabilità che questa assuma valori distanti dalla media più di volte la deviazione standard è al massimo Espresso con una formula: che equivale a:[1] Nell'ambito della statistica descrittiva afferma che almeno il (1-1/λ²)·100 percento dei valori sono compresi tra μ-λσ e μ+λσ. Fisz dimostrò che per le variabili dotate di media e varianza non è possibile trovare una disuguaglianza migliore di quella di Čebyšëv, a meno che non si impongano dei vincoli alla distribuzione della variabile. Da questa disuguaglianza si deduce che • • • • • almeno il 75% dei valori sono compresi tra μ-2σ e μ+2σ almeno l'88% dei valori sono compresi tra μ-3σ e μ+3σ almeno il 93% dei valori sono compresi tra μ-4σ e μ+4σ almeno il 96% dei valori sono compresi tra μ-5σ e μ+5σ almeno il 99% dei valori sono compresi tra μ-10σ e μ+10σ indipendentemente da come sono distribuiti i valori. Disuguaglianza di Čebyšëv Dimostrazione probabilistica Per ogni evento A, sia IA la variabile casuale indicatore di A, cioè IA è uguale a 1 se l'evento A accade e 0 altrimenti. Allora si ha: Dalla disuguaglianza di Markov segue poi: Si ha quindi: Note [1] Si ha infatti: e: da cui: Bibliografia • A. Papoulis (1991), Probability, Random Variables, and Stochastic Processes, 3rd ed. McGraw-Hill. ISBN 0-07-100870-5. pp. 113–114. • G. Grimmett and D. Stirzaker (2001), Probability and Random Processes, 3rd ed. Oxford. ISBN 0-19-857222-0. Section 7.3. Voci correlate • • • • • Disuguaglianza di Cantelli, che è la corrispondente disuguaglianza nel caso di una sola coda. Disuguaglianza di Bernstein, nel caso di v.c. limitate Disuguaglianza di Hoeffding, nel caso di v.c. limitate, con varianza ignota Statistica, Probabilità Deviazione standard, Intervallo di confidenza 102 Disuguaglianza di Markov 103 Disuguaglianza di Markov In teoria della probabilità e statistica, la disuguaglianza di Markov afferma che, per una variabile casuale non negativa il cui valore atteso esiste: Questa disuguaglianza permette di stabilire un limite superiore al valore di probabilità dalla sola conoscenza del valore atteso E[x], a condizione che la variabile casuale sia definita non negativa. La disuguaglianza di Markov è anche utilizzata nella dimostrazione della disuguaglianza di Čebyšëv. Dimostrazione Si definisca la variabile casuale: Chiaramente, . Inoltre: Voci correlate • Andrej Andreevič Markov (1856) • Modello di Markov nascosto Legge dei grandi numeri La legge dei grandi numeri, detta anche legge empirica del caso oppure teorema di Bernoulli (in quanto la sua prima formulazione è dovuta a Jakob Bernoulli), descrive il comportamento della media di una sequenza di n variabili casuali indipendenti e caratterizzate dalla stessa distribuzione di probabilità (n misure della stessa grandezza, n lanci della stessa moneta ecc.) al tendere ad infinito della numerosità della sequenza stessa (n). In altre parole, grazie alla legge dei grandi numeri, possiamo fidarci che la media che calcoliamo a partire da un numero sufficiente di campioni sia sufficientemente vicina alla media vera. In termini generici, per la legge dei grandi numeri si può dire: • che la media della sequenza è un'approssimazione, che migliora al crescere di n, della media della distribuzione; • e che, viceversa, si può prevedere che sequenze siffatte mostreranno una media tanto più spesso e tanto più precisamente prossima alla media della distribuzione quanto più grande sarà n. Un caso particolare di applicazione della legge dei grandi numeri è la previsione probabilistica della proporzione di successi in una sequenza di n realizzazioni indipendenti di un evento E: per n che tende a infinito, la proporzione di successi converge alla probabilità di E (vedi esempio). Legge dei grandi numeri 104 Legge forte dei grandi numeri Se, data una successione di variabili casuali indipendenti e identicamente distribuite con media , si considera la media calcolata la legge (forte) dei grandi numeri afferma che ossia la media campionaria converge quasi certamente alla media comune delle . Legge debole dei grandi numeri Se, data una successione di variabili casuali aventi la stessa media , la stessa varianza finita e indipendenti, si considera la media campionaria la legge (debole) dei grandi numeri afferma che per ogni : ossia la media campionaria converge in probabilità alla media comune delle . Esempio Supponiamo di avere un evento (come il fatto che lanciando un dado esca il sei) con probabilità sconosciuta (sconosciuta perché il dado potrebbe essere truccato, o semplicemente difettoso: non possiamo saperlo in anticipo). Eseguendo n lanci consecutivi otteniamo una stima della probabilità di fare sei con quel dado, data da dove le X della somma rappresentano l'esito dei lanci e valgono uno se in quel lancio è uscito il sei, o zero se è uscito un altro numero. La legge dei grandi numeri afferma semplicemente che, tante più prove usiamo per calcolare la stima, tanto più questa sarà vicina, probabilmente, alla probabilità reale dell'evento p. Se la stima X(n) che calcoleremo sarà molto vicina a un sesto, che è la probabilità teorica che esca il sei per un dado perfetto, potremo essere ragionevolmente certi che il dado in questione non è polarizzato per il sei (per essere sicuri che il dado non sia truccato in nessun modo dovremmo ripetere il test anche per gli altri cinque numeri). Che cosa significhi ragionevolmente sicuri dipende da quanto vogliamo essere precisi nel nostro test: con dieci prove avremmo una stima grossolana, con cento ne otterremmo una molto più precisa, con mille ancora di più e così via: il valore di n che siamo disposti ad accettare come sufficiente dipende dal grado di casualità che riteniamo necessario per il dado in questione. Legge dei grandi numeri 105 Con maggior rigore Sia una successione di spazi di probabilità. Si consideri lo spazio prodotto e in esso una successione bernoulliana di eventi (stocasticamente indipendenti e con probabilità costante p) . Assegnato un elemento si definisce la frequenza di successo in n prove , dove indica il numero di successi ottenuti in n prove. Legge debole dei grandi numeri Dimostrazione Nelle condizioni sopra enunciate, si vuole dimostrare che: . Fissato , si consideri la disuguaglianza di Bienaymé-Čebyšëv: ; poiché è distribuito in modo binomiale, il suo valore atteso è , e la sua varianza è ; abbiamo allora che il valore atteso e la varianza di sono, rispettivamente: , . Sostituendo nella disuguaglianza, si ottiene: , e, passando al limite per , Ma la probabilità non può essere negativa: , da cui la tesi. Osservazioni La legge debole dei grandi numeri non assicura che, comunque scelto il valore si mantenga minore sia si trova: assicurare che o uguale , quasi certamente a partire da un certo a , ovvero che -trascurabile. Infatti, esplicitando la definizione di limite, ma non diverga per . l'insieme niente sembra Legge dei grandi numeri 106 Legge forte dei grandi numeri Ciò è invece assicurato, nelle medesime condizioni, dalla proposizione: che, in effetti, implica sia sia la legge debole dei grandi numeri. Dimostrazione delle due implicazioni la legge forte può essere formulata, esplicitando la Definizione di limite e passando al complementare, come: che a sua volta è equivalente, trasformando il quantificatore esistenziale in un'unione, a: e per monotonia di da cui, per confronto, la prima implicazione. Trasformando anche gli altri due quantificatori in operazioni insiemistiche, si ha: ma, si è in presenza dell'intersezione di una successione non crescente di insiemi, dunque per monotonia di , si ha: e ancora: da cui anche la seconda implicazione, ricordando che questo è valido per ogni . Dimostrazione della legge forte si è già visto che l'asserto è equivalente a: Discretizzando, come consueto nel caso dei limiti, si ha: Per subadditività Dunque, se quest'ultima espressione sarà nulla, si sarà dimostrata la legge forte. Essendo dovrà avere: non negativa, si Legge dei grandi numeri 107 si vuole mostrare che questo è vero considerando la sottosuccessione . Si vuole applicare il lemma di Borel-Cantelli, pertanto si verifica che converga l'espressione Per la disuguaglianza di Bienaymé-Čebyšëv si trova: da cui: Ma questa serie è notoriamente convergente. Pertanto, Si noti ora che ogni numero naturale n è compreso tra due quadrati consecutivi: da cui si noti ora che è la massima differenza possibile tra e , da cui: pertanto: ora però si ha passando al limite ( certamente: il che conclude la dimostrazione. Voci correlate • Campionamento statistico • Statistica, probabilità • Distribuzione di Bernoulli , dunque: )e applicando il risultato ottenuto per , si ottiene che, quasi Teoremi centrali del limite 108 Teoremi centrali del limite I teoremi centrali del limite sono una famiglia di teoremi di convergenza debole nell'ambito della teoria della probabilità. A tutti i teoremi è comune l'affermazione che la somma (normalizzata) di un grande numero di variabili casuali è distribuita approssimativamente come una variabile casuale normale standard. Ciò spiega l'importanza che quest'ultima variabile casuale assume nell'ambito della statistica e della teoria della probabilità in particolare. Jarl Waldemar Lindeberg dimostrò nel 1922 il teorema del limite centrale nell'articolo "Eine neue Herleitung des Exponentialgesetzes in der Wahrscheinlichkeitsrechnung", dimostrato successivamente e autonomamente da Alan Turing. Infatti il teorema, in parole povere, afferma che se si ha una somma di variabili aleatorie indipendenti e 2 identicamente distribuite (con densità uguali) con media μ e varianza σ , allora indipendentemente dalla forma distributiva di partenza, al tendere della dimensione campionaria a infinito la somma tende a distribuirsi come una variabile casuale normale. In formule: per e standardizzando: dove è la v.c. media campionaria. Teorema centrale del limite di Lindeberg-Lévy La più nota formulazione di un teorema centrale del limite è quella dovuta a Lindeberg e Lévy; si consideri una successione di variabili casuali indipendenti e identicamente distribuite, e in particolare tali che esistano, finiti, i loro momenti di ordine primo e secondo, e sia in particolare per ogni e . Definita allora la nuova variabile casuale: dove è la media aritmetica degli , si ha che converge in distribuzione a una variabile casuale normale avente valore atteso 0 e varianza 1, ossia la distribuzione di , al limite per coincide con quella di una tale variabile casuale normale. La dimostrazione del teorema fa uso della nozione di funzione caratteristica della che tende a infinito, , che altro non è che la trasformata di Fourier della funzione di densità (o di massa di probabilità per variabili casuali discrete) della dove è l'unità immaginaria, e denota la funzione di densità di probabilità di dove l'ultima uguaglianza discende dalla indipendenza degli osservi che : . Nel caso presente, si ha: ; per semplicità di notazione sia ; si . Si consideri quindi lo sviluppo di Taylor, centrato in Teoremi centrali del limite 109 del valore atteso: Segue che: Ma applicando il limite notevole: , si ha: Nell'espressione sopra si riconosce la funzione caratteristica di una variabile casuale normale standard, così che la funzione di densità, e dunque la funzione di ripartizione, della , converge a quella di una normale standard al tendere di a infinito, come volevasi dimostrare. Teorema di De Moivre-Laplace Un corollario importante e usato frequentemente del teorema Centrale del Limite è il seguente: Se è una v.c. binomiale, che possiamo vedere come somma di v.c. bernoulliane. Allora per : ovvero una normale con media e varianza . Se standardizziamo: Questo teorema è molto utile nel caso si vogliano valori approssimati del numero di successi nella ripetizione di un esperimento indipendente dagli esiti passati, visto che la variabile aleatoria binomiale risulta spesso difficile da calcolare con numeri elevati. L'approssimazione è tanto migliore quanto più è alto il numero di esperimenti. Dimostrazione Il teorema di De Moivre-Laplace può essere dimostrato più facilmente del teorema Centrale del Limite, con una prova per la quale è necessaria la conoscenza degli sviluppi di Taylor e dell'Approssimazione di Stirling. Per il fattoriale di un numero n sufficientemente grande vale la formula di Stirling, secondo cui: o, equivalentemente: La funzione di densità di si potrà scrivere allora come: Teoremi centrali del limite 110 Sia ora and and Consideriamo dapprima il primo termine tra parentesi quadre nell'ultima uguaglianza: Teoremi centrali del limite E quindi il secondo termine tra parentesi quadrate: Per cui si ha che: Consideriamo quindi il logarimo naturale che appare nell'ultima uguaglianza. Utilizzando le espansioni di Taylor seguenti:- si ha: e 111 Teoremi centrali del limite 112 per cui Possiamo ignorare i termini di grado maggiore del secondo, essendo proporzionale a che tende a 0 al crescere di . Dunque, elevando al quadrato e dividendo per due x, si ha: Quindi, che è esattamente l'asserto che volevamo provare - il termine a destra è una distribuzione normale con media varianza . e Teoremi centrali del limite 113 Voci correlate • • • • • • • • • • Legge dei grandi numeri Statistica Probabilità Variabile casuale Variabile casuale normale Jarl Waldemar Lindeberg Alan Turing Disuguaglianza di Berry-Esseen Teorema di Laplace-Lyapunov Macchina di Galton Altri progetti • Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Central limit theorem Processo markoviano Un processo stocastico markoviano o processo di Markov è un processo stocastico nel quale la probabilità di transizione che determina il passaggio ad uno stato di sistema dipende unicamente dallo stato di sistema immediatamente precedente (proprietà di Markov) e non dal come si è giunti a tale stato (in quest'ultima ipotesi si parla di processo non markoviano). Tale processo prende il nome dal matematico russo Andrej Andreevič Markov che per primo ne sviluppò la teoria. Modelli di tipo markoviano vengono anche utilizzati nel progetto di reti di telecomunicazioni; la teoria delle code che ne consegue trova applicazione in molti ambiti: dalla fila alle poste ai pacchetti in coda in un router. Formalmente questo può essere scritto come Questa è detta proprietà di Markov, o condizione di "assenza di memoria". Catene di Markov Una catena di Markov è un processo di Markov con spazio degli stati discreto, quindi si tratta di un processo stocastico che assume valori in uno spazio discreto e che gode della proprietà di Markov. L'insieme di spazio degli stati può essere finito o infinito (numerabile). Nel primo caso si parla di catena di Markov a stati finiti. Una catena di Markov può essere tempo-continua o tempo-discreta, in base all'insieme di appartenenza della variabile tempo (continuo o discreto). Formalmente, una catena di Markov è un processo stocastico Markoviano caratterizzato da un parametro da un insieme di stati e da una funzione probabilità di transizione Essendo un processo Markoviano, . gode come già detto della proprietà: Nel caso di catena di Markov a tempo discreto (cioè con l'insieme semplice: , discreto), si può assumere la notazione più Processo markoviano 114 Catene di Markov omogenee Una catena di Markov omogenea è un processo markoviano nel quale la probabilità di transizione al tempo non dipende dal tempo stesso, ma soltanto dallo stato del sistema al tempo immediatamente precedente . In altre parole, la probabilità di transizione è indipendente dall'origine dell'asse dei tempi e quindi dipende soltanto dalla distanza tra i due istanti temporali. Per le catene omogenee vale la condizione Più in generale si dimostra che in una catena di Markov omogenea la probabilità di transizione da uno stato a un altro in passi è costante nel tempo: I sistemi reali che possono essere modellati con catene di Markov omogenee sono rari: è sufficiente pensare al sistema "tempo atmosferico" per capire come la probabilità di transizione da uno stato (per esempio "sole") ad un altro stato (per esempio "pioggia") dipende dalla stagione, quindi non è possibile modellare questo sistema come catena di Markov omogenea. Tuttavia, restringendo l'analisi del sistema ad un determinato intervallo di tempo, il comportamento di può considerare omogeneo: in questo caso, l'intervallo di tempo potrebbe essere una singola stagione. Rappresentazione Una catena di Markov omogenea a stati finiti, in cui l'insieme degli stati del sistema è finito e ha può essere rappresentata mediante una matrice di transizione elementi, ed un vettore di probabilità iniziale . Gli elementi di rappresentano le probabilità di transizione tra gli stati della catena: una catena che si trovi nello stato i ha probabilità di passare allo stato j in un passo immediatamente successivo. In particolare gli elementi sulla diagonale principale di , indicano le probabilità di rimanere sullo stesso stato i. Il vettore le probabilità che inizialmente la catena di Markov si trovi in ciascuno degli omogenea è univocamente definita dalla coppia Le probabilità che ad un tempo probabilità dove indica la trasposta del vettore stati. Una catena di Markov . il sistema si trovi in ognuno degli ), in questo caso sono date dal vettore stati (se al tempo ha la distribuzione di così definito: . Dalla definizione assiomatica della probabilità discendono le seguenti proprietà per la matrice : • • . La seconda proprietà equivale a richiedere che la somma degli elementi su una riga sia uguale a 1. Per esempio, e definisce possono essere i seguenti: Nel caso di una catena di Markov omogenea a stati discreti si può invece adottare la notazione sintetica: dove (n) non è da intendersi come un esponente bensì come un indice. Processo markoviano 115 Si ha quindi . Si hanno le seguenti proprietà: • • . Catene di Markov aperiodiche Il periodo di uno stato di una catena di Markov a stati discreti (con finito o infinito numerabile) è definito come il minimo numero di step temporali affinché vi sia una probabilità diversa da zero di tornare sullo stesso stato, partendo dallo stato al tempo . Formalmente il periodo è definito come segue: dove MCD indica il massimo comune divisore. Nel caso di una catena di Markov omogenea a stati finiti con un numero matrice di stati, rappresentabile quindi con una , la definizione si può riformulare così: . Lo stato è detto aperiodico se il suo periodo è uguale a 1. Una catena di Markov è detta aperiodica se tutti i suoi stati sono aperiodici, altrimenti è detta periodica. Catene di Markov irriducibili Una catena di Markov a stati discreti è detta irriducibile se partendo da ogni stato c'è una probabilità maggiore di zero di raggiungere ogni altro stato . Formalmente, una catena di Markov è irriducibile se: . Distribuzioni stazionarie Data una catena di Markov omogenea a stati discreti, una sua distribuzione stazionaria di probabilità (detta anche distribuzione di equilibrio) è una distribuzione discreta di probabilità che soddisfa le seguenti: • • • . Euristicamente, una distribuzione stazionaria è una distribuzione di probabilità che si mantiene costante all'evolversi nel tempo della catena di Markov. L'importanza delle distribuzioni stazionarie per le catene di Markov omogenee a stati discreti è data dai seguenti teoremi: • Il teorema di esistenza e unicità afferma che data una catena di Markov omogenea a stati discreti, con probabilità di transizione e spazio degli stati , se la catena di Markov è irriducibile allora esiste un'unica distribuzione stazionaria per la catena di Markov. • Il teorema della convergenza afferma che data una catena di Markov omogenea a stati discreti, con probabilità di transizione e spazio degli stati , se la catena di Markov è irriducibile ed aperiodica la distribuzione di probabilità al tempo , converge alla distribuzione stazionaria probabilità scelta. Si ha cioè per ogni distribuzione iniziale di Processo markoviano 116 . La convergenza di una catena di Markov a una distribuzione stazionaria, e la possibilità di costruire una catena con una distribuzione stazionaria scelta sono alla base del funzionamento dell'algoritmo di Metropolis-Hastings. Catene di Markov ergodiche Una catena di Markov si definisce ergodica se e solo se per ogni istante iniziale probabilità esiste ed è indipendente da e da e per ogni condizione iniziale di , il limite della probabilità per tempi infiniti . Applicazioni Il motore di ricerca Google assegna un valore all'importanza di un sito web tramite l'algoritmo PageRank: quest'ultimo si basa sull'assegnare una probabilità di transizione da un sito web A a un sito B basata sulla quantità di link che da A conducono a B. Conoscendo la probabilità di transizione è possibile ottenere la distribuzione stazionaria di probabilità della catena di Markov formata da tutti i siti web. La distribuzione stazionaria assegna un valore nell'intervallo [0,1] ad ogni sito (corrispondente alla quantità media di tempo spesa sul sito da un gran numero di utenti dopo un tempo tendente a infinito): tale valore, opportunamente riscalato, costituisce il Page Rank del sito. Bibliografia • (EN) Olle Häggström (2002), Finite Markov Chains and Algorithmic Applications, Cambridge University press, ISBN 0-521-81357-3 Voci correlate • • • • Processo stocastico Variabile casuale Processo di Wiener Modello di Markov nascosto • Algoritmo di Metropolis-Hastings • N-gramma • Teoria ergodica 117 Pignoni Calcolo combinatorio Il calcolo combinatorio è il termine che denota tradizionalmente la branca della matematica che studia i modi per raggruppare e/o ordinare secondo date regole gli elementi di un insieme finito di oggetti. Il calcolo combinatorio si interessa soprattutto di contare tali modi, ovvero le configurazioni e solitamente risponde a domande quali "Quanti sono...", "In quanti modi...", "Quante possibili combinazioni..." eccetera. Più formalmente, dato un insieme S di n oggetti si vuole contare le configurazioni che possono assumere k oggetti tratti da questo insieme. Prima di affrontare un problema combinatorio bisogna precisare due punti importanti: • Se l'ordinamento è importante, ovvero se due configurazioni sono le stesse a meno di un riordinamento ({x,y,z} è uguale a {z,x,y}?) • Se si possono avere più ripetizioni di uno stesso oggetto, ovvero se uno stesso oggetto dell'insieme può o meno essere riusato più volte all'interno di una stessa configurazione. Permutazioni Permutazioni semplici (senza ripetizioni) Una permutazione di un insieme di oggetti è una presentazione ordinata, cioè una sequenza, dei suoi elementi nella quale ogni oggetto viene presentato una ed una sola volta. Per contare quante siano le permutazioni di un insieme con n oggetti, si osservi che il primo elemento della configurazione può essere scelto in n modi diversi, il secondo in (n-1), il terzo in (n-2) e così via sino all'ultimo che potrà essere preso in un solo modo essendo l'ultimo rimasto. Dunque, indicando con Pn il numero delle possibili permutazioni di un insieme di n elementi, si ottiene che esse sono esattamente n! (n fattoriale): Ad esempio le permutazioni degli elementi dell'insieme {a,b,c} sono 3! = 6: abc, bac ,bca, cab, cba, acb. Un altro esempio può essere il seguente: In quanti modi possibili possiamo anagrammare la parola -ATRIO-, contando anche le parole prive di significato: ATRIO n=5; P5= 5 * 4 * 3 * 2 * 1 = 120 modi di anagrammare la parola ATRIO. N.B: nella parola ATRIO nessuna lettera si ripete. Per completare meglio la definizione di fattoriale fissiamo anche i valori seguenti: 1! = 1 e 0! = 1. Permutazioni con ripetizioni In alcuni casi un insieme può contenere elementi che si ripetono. In questo caso alcune permutazioni di tali elementi saranno uguali tra loro. Indicando con k1, k2 fino a kr il numero di volte che si ripetono rispettivamente gli elementi 1, 2 fino a r, dove r ≤ n, le permutazioni uniche (non ripetute) divengono: Si tratta, infatti, di dividere il numero delle distinte permutazioni di n oggetti per il numero delle permutazioni di k1! presenze di uno stesso elemento, tutte uguali tra loro, poi per il numero delle permutazioni di k2! presenze di uno stesso elemento, ecc. Calcolo combinatorio La formula vale in realtà per qualsiasi permutazione, anche senza ripetizioni di elementi. Infatti, se assumiamo k1, k2 fino a kr uguali ad 1 (cioè gli elementi si ripetono una sola volta), otteniamo esattamente la formula delle permutazioni semplici, perché si ha: Ad esempio: In quanti modi possiamo anagrammare la parola FARFALLA. Le lettere contenute nella parola sono n=8; gli elementi che si ripetono sono “F” (k1=2) ; “A” (k2=3); “L” (k3=2) Utilizzando la formula, avremo: Dismutazioni Sono dette dismutazioni le permutazioni prive di punti fissi, con formula: Disposizioni Disposizioni semplici (senza ripetizioni) Una disposizione semplice di lunghezza k di elementi di un insieme S di n oggetti, con k ≤ n, è una presentazione ordinata di k elementi di S nella quale non si possono avere ripetizioni di uno stesso oggetto. Per avere il numero di queste configurazioni si considera che il primo componente di una tale sequenza può essere scelto in n modi diversi, il secondo in (n-1) e così via, sino al k-esimo che può essere scelto in (n-k+1) modi diversi. Pertanto il numero Dn,k di disposizioni semplici di k oggetti estratti da un insieme di n oggetti è dato da: Ad esempio le disposizioni semplici di lunghezza 2 degli elementi dell'insieme {1,2,3,4,5} sono 5!/(5-2)! = 5!/3! = 120/6 = 20: 12, 13, 14, 15, 21, 23, 24, 25, 31, 32, 34, 35, 41, 42, 43, 45, 51, 52, 53, 54. Si osserva che le permutazioni sono casi particolari delle disposizioni semplici: le permutazioni di un insieme di n oggetti sono le disposizioni semplici di tali oggetti di lunghezza n. In effetti per il loro numero: Disposizioni con ripetizioni Una presentazione ordinata di elementi di un insieme nella quale si possono avere ripetizioni di uno stesso elemento si dice disposizione con ripetizioni. Cerchiamo il numero delle possibili sequenze di k oggetti estratti dagli elementi di un insieme di n oggetti, ognuno dei quali può essere preso più volte. Si hanno n possibilità per scegliere il primo componente, n per il secondo, altrettante per il terzo e così via, sino al k-esimo che completa la configurazione. Il numero cercato è pertanto: Ad esempio le disposizioni con ripetizione di lunghezza 2 degli elementi di {1,2,3,4,5} sono 52 = 25: Si osserva che può anche essere k > n 118 Calcolo combinatorio 119 Combinazioni Combinazioni semplici (senza ripetizioni) Si chiama combinazione semplice una presentazione di elementi di un insieme nella quale non ha importanza l'ordine dei componenti e non si può ripetere lo stesso elemento più volte. La collezione delle combinazioni di k elementi estratti da un insieme S di n oggetti distinti si può considerare ottenuta dalla collezione delle disposizioni semplici di lunghezza k degli elementi di S ripartendo tali sequenze nelle classi delle sequenze che presentano lo stesso sottoinsieme di S e scegliendo una sola sequenza da ciascuna di queste classi. Ciascuna delle suddette classi di sequenza di lunghezza k contiene k! sequenze, in quanto accanto a una sequenza σ si hanno tutte e sole quelle ottenibili permutando i componenti della σ. Quindi il numero delle combinazioni semplici di n elementi di lunghezza k si ottiene dividendo per k! il numero delle disposizioni semplici di n elementi di lunghezza k: Di solito tra le diverse disposizioni semplici di una classe si sceglie come combinazione rappresentativa la sequenza nella quale i componenti compaiono in ordine crescente (tutti gli insiemi finiti possono avere gli elementi ordinati totalmente, ovvero associati biunivocamente ai primi interi positivi). Ad esempio le combinazioni semplici di lunghezza 4 degli elementi di {1,2,3,4,5,6} sono 6!/(4!2!) = 15: 1234, 1235, 1236, 1245, 1246, 1256, 1345, 1346, 1356, 1456, 2345, 2346, 2356, 2456, 3456. Combinazioni con ripetizioni Quando l'ordine non è importante ma è possibile avere componenti ripetute si parla di combinazioni con ripetizione. Il numero di combinazioni con ripetizione di n oggetti di classe k è uguale a quello delle combinazioni senza ripetizione di n+k-1 oggetti di classe k ed è quindi uguale a: . Ad esempio, vi sono modi di distribuire a 2 bambini distinguibili 4 caramelle indistinguibili, contando anche i casi in cui uno dei bambini non riceve nessuna caramella: 0-4, 1-3, 2-2, 3-1, 4-0. Equivalentemente, le combinazioni con ripetizioni informano sul numero di possibili n-ple di addendi non negativi la cui somma sia k (considerando diverse n-ple in cui eguali addendi compaiano in ordine differente); nel suddetto esempio, sono mostrate le cinque diverse duple di somma 4. Inoltre, le combinazioni con ripetizioni per n oggetti di classe k rappresentano il numero delle derivate parziali di ordine k calcolabili per una funzione a n variabili. Voci correlate • • • • • • Combinatoria Permutazione Disposizione Combinazione Dismutazione (matematica) Binomio di Newton Calcolo combinatorio 120 Altri progetti • Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/ Category:Combinatorics Coefficiente binomiale Il coefficiente binomiale è definito da (dove n! è il fattoriale di n) e può essere calcolato anche facendo ricorso al triangolo di Tartaglia. Alla voce Combinazione è dimostrato che esso fornisce il numero delle combinazioni semplici di n elementi di classe k. Per esempio: è il numero di combinazioni di 5 elementi presi 3 alla volta. Proprietà Il coefficiente binomiale ha le seguenti proprietà: • • • • , ovvero: (proprietà che permette di costruire i coefficienti binomiali con il triangolo di Tartaglia) • Estensioni Si può estendere il coefficiente binomiale al caso che k sia negativo, oppure maggiore di n, ponendo: oppure Si può anche estendere il coefficiente ai numeri reali. A tale scopo, può convenire iniziare con l'osservazione che il coefficiente binomiale è anche il rapporto tra il numero delle funzioni iniettive da un insieme di cardinalità k in uno di cardinalità n (ovvero il numero delle disposizioni semplici di n oggetti di classe k) ed il numero delle permutazioni di k oggetti: Si può porre: Coefficiente binomiale ad esempio, Con tale convenzione, si ha: ad esempio: Voci correlate • • • • Coefficiente multinomiale Coefficiente binomiale simmetrico Teorema binomiale Fattoriale • • • • Calcolo combinatorio, Combinazione, Permutazione Probabilità Variabile casuale binomiale Statistica Altri progetti • Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Binomial coefficients 121 Teorema binomiale 122 Teorema binomiale In algebra il teorema binomiale (o anche formula di Newton, binomio di Newton e sviluppo binomiale) esprime lo sviluppo della potenza n-esima di un binomio qualsiasi con la formula seguente: in cui il fattore rappresenta il coefficiente binomiale ed è sostituibile con . Tali coefficienti sono peraltro gli stessi che si trovano nel noto triangolo di Tartaglia. Lo sviluppo vale per ogni coppia di numeri reali o complessi, ma più in generale vale in ogni anello commutativo. Come esempio di applicazione della formula, riportiamo i casi piccoli, n = 2, n = 3 ed n = 4: Nel caso in cui n sia un numero reale o complesso, la somma finita è sostituito da una serie infinita. Questa formula generalizzata, nel caso di n reale positivo, fu realizzata da Isaac Newton (da cui il nome). Esposizione È possibile, secondo il teorema, espandere una qualunque potenza intera di (a + b) in una sommatoria nella forma dove rappresentano i coefficienti binomiali. Utilizzando la notazione di sommatoria, la stessa formula può essere scritta: Una variante di questa formula binomiale può essere ottenuta sostituendo 1 ad "a" e "a" a "b", considerando quindi una sola variabile. In questa forma, si ha: o, in maniera equivalente, Teorema binomiale 123 Prima dimostrazione (induttiva) Il teorema binomiale può essere dimostrato per induzione. Infatti è possibile introdurre per tale teorema un passo base per cui esso risulta banalmente vero e provare con il passo induttivo la veridicità del teorema per un esponente n qualsiasi. Infatti presa per corretta l'espressione sicuramente vera per +1, si ha moltiplicando la sommatoria per si ha da cui, essendo ed inoltre si ha che, utilizzando nel primo passaggio una nota proprietà del coefficiente binomiale essendo infine Teorema binomiale 124 e si ha che e si ottiene l'espressione formale dello sviluppo della potenza successiva del binomio che conferma la tesi. Seconda dimostrazione (combinatoria) Se scriviamo come il prodotto con n fattori, è evidente che il numero delle volte in cui compare nello sviluppo il termine di combinazioni che si possono ottenere prendendo che è dato proprio da volte e volte è pari al numero dai fattori del prodotto, numero . Poiché per la proprietà distributiva il prodotto è dato dalla somma di questi termini al variare di da a , si ha subito la tesi. Caso di esponente generale Una dimostrazione possibile del caso è attraverso le serie di Taylor. Nella pratica si usano spesso solo i primi due termini della serie, ossia dove il resto o(x) indica un infinitesimo di ordine superiore al primo. Lo sviluppo completo è , dove è il coefficiente binomiale generalizzato, dato da . Teorema binomiale 125 Dimostrazione Lo sviluppo attorno all'origine della funzione è e, poiché si ottiene che è la formula di cui sopra. Troncando la serie al k-esimo termine, l'errore che si ottiene è un infinitesimo di ordine . Voci correlate • Trinomio di Newton • Teorema multinomiale • Coefficiente binomiale Coefficiente multinomiale Il coefficiente multinomiale è un'estensione del coefficiente binomiale. Per un numero intero non negativo vettore intero non negativo e un di normauno pari a n, il coefficiente multinomiale è definito come ed è sempre un numero naturale. Teorema multinomiale Come generalizzazione del teorema binomiale vale il cosiddetto teorema multinomiale: ovvero dove indica la sommatoria di tutte le possibili erruple la cui somma degli elementi corrisponda proprio a . Una forma più compatta della precedente formula fa uso della notazione multi-indice e della contrazione tensoriale: con le norme unitarie: Coefficiente multinomiale 126 e: Applicazioni Il coefficiente multinomiale è pari al numero di modi in cui possono essere messi oggetti in scatole, tali che Analogamente il coefficiente multinomiale dà il numero delle permutazioni di n oggetti, di cui uguali tra loro, oggetti stiano nella prima scatola, nella seconda, e così via. uguali tra loro e così via, potendo un qualsiasi essere uguale a 1, e avendosi così . Il coefficiente multinomiale viene usato inoltre nella definizione della variabile casuale multinomiale: una variabile casuale discreta. Esempio Vi sono molti modi di distribuire a 3 giocatori 10 carte ciascuno, mettendone da parte 2, il tutto prelevato da un mazzo di 32 carte (come nel tradizionale gioco di carte tedesco skat). Quanti sono questi modi? Voci correlate • • • • • Calcolo combinatorio Coefficiente binomiale Probabilità Teorema binomiale Variabile casuale multinomiale 127 Tappe in linea Problema di Monty Hall Il problema di Monty Hall è un famoso problema di teoria della probabilità, legato al gioco a premi americano Let's Make a Deal. Prende il nome da quello del conduttore dello show, Maurice Halprin, noto con lo pseudonimo di Monty Hall. Nel gioco vengono mostrate al concorrente tre porte chiuse; dietro ad una si trova un'automobile, mentre ciascuna delle altre due nasconde una capra. Il giocatore può scegliere una Dopo la scelta del giocatore, il presentatore apre una porta (egli sa dove si trova l'auto) delle tre porte, vincendo il premio mostrando una capra. Qualsiasi cosa ci sia dietro la scelta iniziale del giocatore, egli cambiando scelta ha il 66,7% di probabilità di vincere l'auto, non cambiandola ne avrebbe corrispondente. Dopo che il giocatore il 33,3%. ha selezionato una porta, ma non l'ha ancora aperta, il conduttore dello show – che conosce ciò che si trova dietro ogni porta – apre una delle altre due, rivelando una delle due capre, e offre al giocatore la possibilità di cambiare la propria scelta iniziale, passando all'unica porta restante. Cambiare porta migliora le chance del giocatore di vincere l'automobile? La risposta è sì: cambiando le probabilità di successo passano da 1/3 a 2/3. Il problema è anche noto come paradosso di Monty Hall, poiché la soluzione può apparire controintuitiva, ma non si tratta di una vera antinomia, in quanto non genera contraddizioni logiche. Storia del problema e sua soluzione Il problema Una famosa formulazione del problema è contenuta in una lettera del 1990 di Craig F. Whitaker, indirizzata alla rubrica di Marilyn vos Savant nel settimanale Parade: Supponi di partecipare a un gioco a premi, in cui puoi scegliere tra tre porte: dietro una di esse c'è un'automobile, dietro le altre, capre. Scegli una porta, diciamo la numero 1, e il conduttore del gioco a premi, che sa cosa si nasconde dietro ciascuna porta, ne apre un'altra, diciamo la 3, rivelando una capra. Quindi ti domanda: "Vorresti scegliere la numero 2?" Ti conviene cambiare la tua scelta originale? Quella proposta sopra è una formulazione del problema data da Steve Selvin, in una lettera all'American Statistician (febbraio 1975). Così impostato, il problema è in realtà una variazione sul tema del gioco a premi originale; Monty Hall in effetti apriva una porta dietro cui si trovava una capra per aumentare la tensione, ma non consentiva ai giocatori di cambiare la propria scelta originale. Come scrisse lo stesso Monty Hall a Selvin: Problema di Monty Hall E se mai dovesse partecipare al mio gioco, le regole sarebbero le stesse per lei - nessuno scambio dopo la scelta originale. —(letsmakeadeal.com) [1] Marilyn vos Savant risolse il problema correttamente; l'episodio fece un certo scalpore, in quanto diversi accademici non riconobbero la correttezza della soluzione proposta dalla vos Savant finché questa non la spiegò nel dettaglio in un successivo articolo. La successiva lettera di Selvin all'America Statistician (agosto, 1975) battezza il problema come "Problema di Monty Hall". Un problema essenzialmente identico appare in ogni modo nella rubrica Mathematical Games di Martin Gardner nel 1959, col nome di "Problema dei tre prigionieri". Questo problema era stato ideato dal matematico francese Joseph Louis François Bertrand che lo aveva proposto nel suo libro Calcul des Probabilités (1889) ed era noto come il Paradosso delle tre scatole di Bertrand. Quella che segue, per concludere, è una formulazione del problema priva di ambiguità, con vincoli espliciti concernenti il comportamento del conduttore, presentata da Mueser e Granberg: • Dietro ciascuna di tre porte c'è un'automobile o una capra (due capre, un'automobile in tutto); la probabilità che l'automobile si trovi dietro una data porta è identica per tutte le porte; • Il giocatore sceglie una delle porte; il suo contenuto non è rivelato; • Il conduttore sa ciò che si nasconde dietro ciascuna porta; • Il conduttore deve aprire una delle porte non selezionate, e deve offrire al giocatore la possibilità di cambiare la sua scelta; • Il conduttore aprirà sempre una porta che nasconde una capra; • Cioè, se il giocatore ha scelto una porta che nasconde una capra, il conduttore aprirà la porta che nasconde l'altra capra; • Se invece il giocatore ha scelto la porta che nasconde l'automobile, il conduttore sceglie a caso una delle due porte rimanenti; • Il conduttore offre al giocatore la possibilità di reclamare ciò che si trova dietro la porta che ha scelto originalmente, o di cambiare, reclamando ciò che si trova dietro la porta rimasta. Le possibilità di vittoria aumentano per il giocatore se cambia la propria scelta? Soluzione La risposta è sì; le probabilità di trovare l'automobile raddoppiano.[2][3] La soluzione può essere illustrata come segue. Ci sono tre scenari possibili, ciascuno avente probabilità 1/3: • Il giocatore sceglie la capra numero 1. Il conduttore sceglie l'altra capra, la numero 2. Cambiando, il giocatore vince l'auto. • Il giocatore sceglie la capra numero 2. Il conduttore sceglie l'altra capra, la numero 1. Cambiando, il giocatore vince l'auto. • Il giocatore sceglie l'auto. Il conduttore sceglie una capra, non importa quale. Cambiando, il giocatore trova l'altra capra. Nei primi due scenari, cambiando il giocatore vince l'auto; nel terzo scenario il giocatore che cambia non vince. Dal momento che la strategia "cambiare" porta alla vittoria in due casi su tre, le chance di vittoria adottando la strategia sono 2/3. Una strategia di soluzione alternativa è considerare che se si suppone di cambiare, il solo caso in cui si perde è quello in cui originariamente si è scelta l'automobile e quindi la domanda del conduttore può essere considerata un invito a invertire le probabilità di successo con quelle di insuccesso. 128 Problema di Monty Hall Il problema sarebbe diverso se non ci fosse una scelta iniziale, o se il conduttore scegliesse una porta a caso, o se il conduttore potesse offrire al giocatore di cambiare a seconda della scelta iniziale del giocatore. Alcune formulazioni del problema, e significativamente quella del settimanale Parade, non escludono esplicitamente queste possibilità; diversi testi di probabilità elementare riportano varianti del problema. Per esempio, se il conduttore offre la possibilità di cambiare solo se il giocatore inizialmente ha scelto l'automobile, le chance di vittoria associate alla strategia "cambiare" sono, ovviamente, dello 0%. Nella formulazione proposta nella sezione precedente, il giocatore che cambia ha una probabilità di vittoria pari a 2/3 precisamente perché il conduttore deve offrirgli la possibilità di cambiare, e deve rivelare una capra. Aiuti alla comprensione del problema L'obiezione più comune alla soluzione è fornita dall'idea che, per varie ragioni, il passato possa essere ignorato quando si valutano delle probabilità. Dunque, la scelta della prima porta e il ragionamento del conduttore circa quale porta aprire si possono trascurare; dal momento che si può scegliere tra due porte, la probabilità di scegliere quella giusta dovrebbe essere pari al 50%. Per confutare ciò possiamo porci una domanda. Ipotizziamo che un giocatore adotti la strategia di non accettare mai l'offerta del conduttore, qualunque essa sia. Se le probabilità di vincita all'inizio sono del 33%, ha senso pensare che queste passino automaticamente al 50% solo perché il conduttore ha chiesto qualcosa che il giocatore non ascolta neanche? Ovviamente no. Sebbene ignorare il passato funzioni in certi giochi, come ad esempio nel lancio di una moneta, non funziona necessariamente in tutti i giochi. Un rilevante controesempio è fornito dal conteggio delle carte uscite in certi giochi di carte, che consente ai giocatori di sfruttare a proprio vantaggio l'informazione riguardante eventi passati. Questo tipo di informazione è utile nella soluzione del problema di Monty Hall, come illustrato negli esempi che seguono. Infatti, è più facile (probabile) che il giocatore si trovi ad aver scelto (prima scelta nel passato) una capra (aveva due possibilità su tre per una capra contro una possibilità su tre per l'automobile). Quello che realmente fa la differenza è la conoscenza del futuro o almeno la restrizione dei possibili eventi futuri. Mentre nel lancio della moneta le probabilità di uscita testa o croce non dipendono dai lanci passati, negli esempi di carte (contare le carte) o del problema di Monty Hall i possibili eventi futuri si "riducono" dopo un preciso episodio. Nel caso del contare le carte, l'uscita di una carta modifica le possibili carte che possono ancora uscire, quindi ne modifica la probabilità. Nel caso del problema di Monty Hall, l'esclusione da parte del conduttore di una scelta certamente "sconveniente" rende attraente la porta rimanente più interessante della prima porta scelta quando non si aveva nessuna conoscenza. 129 Problema di Monty Hall Diagrammi di Eulero-Venn La probabilità che l'auto sia dietro la porta restante può essere calcolata con l'ausilio del diagramma di Venn illustrato sotto. Dopo aver scelto la porta 1, per esempio, il giocatore ha probabilità 1/3 di aver selezionato la porta con l'auto, il che assegna una probabilità pari a 2/3 alle due porte restanti. Si osservi che c'è una probabilità pari a 1 di trovare una capra dietro almeno una delle due porte non selezionate dal giocatore, dal momento che c'è una sola auto in palio. Si supponga che il conduttore apra la porta 3. Dal momento che può solo aprire una porta che nasconde una capra, e non apre una porta a caso, questa informazione non ha effetto sulla probabilità che l'auto sia dietro la porta originariamente selezionata, che resta pari a 1/3. Ma l'auto non è dietro la porta 3, dunque l'intera probabilità di 2/3 delle due porte non selezionate dal giocatore è ora assegnata alla sola porta 2, come mostrato sotto. Un modo alternativo per arrivare a questa conclusione è osservare che se l'auto si trova dietro la porta 2 o dietro la porta 3, aprire la porta 3 implica che l'auto si trova dietro la 2. Osserviamo che il problema non cambierebbe se il conduttore, anziché aprire una porta, offrisse al giocatore la possibilità di cambiare la porta scelta con entrambe le altre. In questo caso è evidente che la probabilità è 2/3. Viceversa, la situazione cambierebbe completamente se il presentatore, dopo aver escluso la porta 3, scambiasse casualmente i premi nascosti dietro le porte 1 e 2. In questo caso il giocatore avrebbe probabilità 1/2 di vincere sia se mantiene la porta 1, sia se la cambia. Senza questo rimescolamento le probabilità restano 1/3 e 2/3. 130 Problema di Monty Hall 131 Teorema di Bayes Un'analisi del problema attraverso il teorema di Bayes rende esplicito l'effetto delle ipotesi sopra indicate. Si consideri, senza ledere la generalità dell'analisi, il caso in cui la porta 3 è stata aperta dal conduttore mostrando una capra, e che il concorrente abbia selezionato la porta 1. La probabilità che l'automobile si trovi dietro la porta 2 (ovvero la probabilità di trovare l'auto dopo aver cambiato la scelta iniziale) è ove A1 è l'evento che l'auto si trovi dietro alla porta 1 e C3 è l'evento che il conduttore selezioni una capra dietro la porta 3. La probabilità (a priori, utilizzando il gergo della statistica bayesiana) che l'automobile si trovi dietro la porta 1, che si denota con , è chiaramente 1/3, in quanto l'auto ha a priori la stessa probabilità di trovarsi dietro ciascuna porta. La probabilità che il conduttore dello show trovi una capra dietro la porta 3, , è altrettanto chiaramente 1, visto che il conduttore sapeva in anticipo dove si celava l'automobile e pertanto sa quale porta vada selezionata per trovare la capra. La probabilità che il conduttore selezioni una porta con dietro la capra posto ("a posteriori") che l'automobile sia dietro la porta 1, , è 1 per ovvi motivi. Pertanto, sfruttando il teorema di Bayes: La probabilità di trovare l'auto cambiando la scelta iniziale, dopo che il conduttore (onnisciente) ha mostrato una porta con dietro la capra è: Spiegazione del ragionamento intuitivo Analisi della soluzione Per arrivare al ragionamento intuitivo è necessaria l'analisi sotto un altro aspetto delle parole del conduttore: "Apro una delle due porte che non hai scelto, in cui vi è una capra. Vuoi cambiare la tua scelta?". Sapendo a priori la soluzione, le parole dette dal conduttore possono essere tradotte in: "Se hai scelto un'automobile (1/3) ti faccio perdere facendoti scegliere una capra (100%), se invece hai scelto una delle due capre (2/3) ti faccio vincere scegliendo l'automobile (100%). Vuoi cambiare la tua scelta?". Come vediamo, inizialmente i casi sono: • A: il giocatore sceglie la prima capra, perdendo (1/3); • B: il giocatore sceglie la seconda capra, perdendo (1/3); • C: il giocatore sceglie l'automobile, vincendo (1/3);con una probabilità di vincita del 1/3. Cambiando la scelta ci accorgiamo che: • A: il giocatore aveva scelto la prima capra, la seconda capra viene scoperta, il giocatore sceglie l'automobile vincendo (1/3); • B: il giocatore aveva scelto la seconda capra, la prima capra viene scoperta, il giocatore sceglie l'automobile vincendo (1/3); • C: il giocatore aveva scelto l'automobile, viene scoperta una delle due capre, il giocatore sceglie la capra rimanente perdendo (1/3);con una probabilità di vincita di 2/3 (sia A che B), possiamo rilevare che questo accade solo perché dato che i casi di perdita sono due, eliminandone uno, le possibilità, cambiando la scelta variano da: A e B perdenti e C vincente, a C perdente e AB vincente. Perciò, essendo partiti da 3 possibilità iniziali, di cui due uguali, avendo quindi solo 2 risultati finali, le probabilità passano dal 1/3 a 2/3 e non dal 1/3 al 50%, cosa che sarebbe accaduta se le situazioni iniziali fossero 3 differenti, in modo da avere obbligatoriamente 3 risultati finali di modo che l'apertura di una delle tre porte avrebbe eliminato una delle opzioni finali e iniziali e non solo di quelle iniziali. Problema di Monty Hall Il ragionamento intuitivo La situazione che d'intuito ci viene a pensare è questa, che purtroppo induce ogni ragionamento logico collegato a non riuscire a spiegare il problema di Monty Hall: Partiamo dalla situazione che vi è un secondo concorrente a partecipare al gioco a premi per rappresentare la seconda situazione differente da quella del primo, il primo concorrente ha già vinto la macchina, e al posto di una capra viene messa una moto in una porta. Ora a seconda di cosa sceglierà il concorrente, vincerà (scegliendo la porta con l'automobile che avrebbe dovuto vincere il primo concorrente), vi sarà un pareggio (entrambi vinceranno: il primo concorrente vincerà l'automobile e il secondo la moto) oppure perderà (scegliendo la capra, lasciando vincere il primo concorrente). Supponi ora di partecipare a un gioco a premi, in cui puoi scegliere tra tre porte: dietro una di esse c'è un'automobile, dietro un'altra una moto e infine dietro l'ultima, una capra. Scegli una porta, diciamo la numero 1, e il conduttore del gioco a premi, che sa cosa si nasconde dietro ciascuna porta, ne apre un'altra, diciamo la 3. Quindi ti domanda: "Vorresti scegliere la numero 2?" Ti conviene cambiare la tua scelta originale? Dietro ciascuna di tre porte c'è un'automobile o una moto o una capra; la probabilità che l'automobile si trovi dietro una data porta è identica per tutte le porte; • Il giocatore sceglie una delle porte; il suo contenuto non è rivelato; • Il conduttore sa ciò che si nasconde dietro ciascuna porta; • Il conduttore deve aprire una delle porte non selezionate, e deve offrire al giocatore la possibilità di cambiare la sua scelta; • Il conduttore aprirà una delle porte non scelte a caso; • Cioè, indipendentemente da ciò che ha scelto il giocatore il conduttore aprirà una porta, eliminando la possibilità che la condizione finale correlata alla porta appena aperta si verifichi; • Il conduttore offre al giocatore la possibilità di reclamare ciò che si trova dietro la porta che ha scelto originalmente, o di cambiare, reclamando ciò che si trova dietro la porta rimasta. Che cambiamento si ha? Le possibilità di vittoria aumentano? La soluzione al ragionamento intuitivo La risposta è sì; le probabilità di trovare l'automobile arrivano al 50%. La differenza con il problema precedente sta nelle probabilità di perdita o di pareggio, che aumentano anch'esse fino al 50%. La soluzione può essere illustrata come segue. Ci sono sei scenari possibili, ciascuno avente probabilità 1/6: • Il giocatore sceglie la capra. • Il conduttore elimina l'automobile. Cambiando, il giocatore pareggia, scegliendo la moto. • Il conduttore elimina la moto. Cambiando, il giocatore vince, scegliendo l'automobile. • Il giocatore sceglie la moto. • Il conduttore sceglie la capra. Cambiando, il giocatore vince, scegliendo l'auto. • Il conduttore sceglie l'automobile. Cambiando, il giocatore perde, scegliendo la capra. • Il giocatore sceglie l'automobile. • Il conduttore sceglie la moto. Cambiando, il giocatore perde, scegliendo la capra. • Il conduttore sceglie la capra. Cambiando, il giocatore pareggia, scegliendo la moto. Come si può vedere, la situazione iniziale, avendo tre possibilità differenti, impone tre risultati diversi. Perciò questa volta è il conduttore a eliminare una possibilità al giocatore, cosa che potrebbe portare uno svantaggio o un vantaggio a seconda del conduttore, quindi il giocatore dovrebbe soltanto decidere se fidarsi o no. La possibilità di pareggio va considerata a sè stante e non come possibilità di perdita, altrimenti si rischia di confondere nuovamente le situazioni dei due concorrenti, senza capire la situazione reale. 132 Problema di Monty Hall Varianti Il conduttore non sa cosa ci sia dietro le porte Dopo la scelta del concorrente, il conduttore apre una delle due porte rimaste. Poiché non sa cosa c'è dietro, con probabilità 1/3 trova l'auto e il gioco finisce. Con probabilità 2/3 trova invece la capra e può chiedere al concorrente se vuole effettuare il cambio con la porta rimasta chiusa. In questo caso accettare lo scambio non fa aumentare al concorrente la sua probabilità di vincere che a questo punto è di 1/2 qualunque sia la sua decisione.[4] Due giocatori Ad alcuni minuti dalla fine del gioco, il conduttore sceglie due concorrenti a cui proporre "la grande scommessa". Dietro a una delle tre porte c'è il premio più consistente. Ad ogni giocatore è permesso scegliere una porta (non la stessa) . In questo scenario, si può esaminare una variante del problema. Il presentatore elimina il giocatore che abbia scelto una porta con dietro la capra (se lo hanno fatto entrambi, ne viene scelto uno a caso), apre la porta, svelando la capra e poi offre al giocatore rimanente la possibilità di cambiare la propria scelta. Il giocatore dovrebbe effettuare lo scambio? La risposta è no. La ragione: il giocatore che effettuasse lo scambio in questo tipo di gioco vincerebbe se e solo se entrambi i giocatori avessero scelto una porta con la capra. che probabilità ha questa evenienza? 1/3. Se mantenesse la scelta resterebbero 2/3 di probabilità. Quindi chi mantenesse la scelta fatta inizialmente avrebbe il doppio delle possibilità di vincere. In alternativa, ci sono tre possibili scenari, tutti con uguale probabilità (1/3): • Il giocatore 1 sceglie la porta che nasconde l'auto. Il conduttore deve eliminare il giocatore 2. Cambiare scelta comporta perdere. • Il giocatore 2 sceglie la porta che nasconde l'auto. Il conduttore deve eliminare il giocatore 1. Cambiare scelta comporta perdere. • Nessuno dei giocatori sceglie la porta che nasconde l'auto. Il conduttore elimina a caso uno dei due giocatori. Cambiare scelta comporta vincere. Il giocatore 1 è l'unico rimasto nel primo caso, e lo è con probabilità 1/2 nel terzo caso; in questa eventualità cambiare scelta comporta una probabilità di perdere (1/3) due volte maggiore di quella di vincere (1/6). Analogamente, nel secondo caso il giocatore 2 è l'unico rimasto, e lo è con probabilità 1/2 nel terzo caso; in questa eventualità cambiare scelta comporta una probabilità di perdere (1/3) due volte maggiore di quella di vincere (1/6). Dunque a prescindere da quale giocatore rimanga, c'è una probabilità pari a 2/3 di vincere se non si cambia scelta. Per rendere più palese la differenza rispetto al caso precedente si può dire che non si può qui ragionare come prima dove il (unico) giocatore arriva sempre al secondo turno (quello del possibile scambio) e la probabilità che abbia selezionato la scelta vincente rimane 1/3, contro i complementari 2/3 della scelta alternativa. Si deve invece notare che nell'istante in cui un giocatore (uno dei due) arriva al secondo turno deve considerare che la probabilità che abbia inizialmente effettuato la scelta giusta si modifica e sale a 2/3. In sostanza il giocatore rimasto riveste in questo caso, in termini di probabilità, lo stesso ruolo che prima (caso con un giocatore) ricopriva la porta non selezionata dal giocatore né eliminata dal conduttore. 133 Problema di Monty Hall n porte Esiste una generalizzazione del problema originale in cui si hanno n porte: nel primo stadio del gioco, il giocatore sceglie una porta. Quindi il conduttore apre un'altra porta, che nasconde una capra. Se il giocatore vuole, può quindi cambiare scelta e passare a un'altra porta. Il conduttore aprirà allora un'ulteriore porta, ancora non aperta, che nasconde una capra, diversa da quella attualmente scelta dal giocatore. Il giocatore ha quindi la possibilità di cambiare ancora scelta, e così via. Questo procedimento continua fino a che non restano che due porte non ancora aperte: la scelta corrente del giocatore, e un'altra porta. Quante volte dovrebbe cambiare scelta il giocatore, e a che punto del gioco (sempre che cambi almeno una volta)? La migliore strategia è: restare con la prima scelta sino a che non rimangano solo due porte e a quel punto cambiare. Seguendo questa strategia la probabilità di vincere è . Questa variante del paradosso di Monty Hall si deve a Bapeswara Rao e Rao. Variante nel gioco del bridge Una comune variante del problema è nota ai giocatori di bridge da ben prima che l'articolo della Vos Savant fosse pubblicato. Tale variante è nota come principio della scelta ristretta.[5] Versione quantistica Esiste una versione quantistica del paradosso, che illustra alcuni aspetti della relazione tra la teoria dell'informazione classica (non quantistica) e l'informazione quantistica, ossia l'informazione codificata negli stati di sistemi meccanici quantistici. Le tre porte sono rimpiazzate da un sistema quantistico che consta di tre alternative, in cui aprire una porta e vedere cosa nasconde si traduce in fare una particolare misurazione. Le regole del gioco possono essere espresse in questo linguaggio, e ancora una volta il giocatore può scegliere se restare fedele alla propria scelta iniziale o cambiare e optare per una scelta alternativa ("ortogonale"). Quest'ultima strategia ha probabilità di vittoria doppie, esattamente come nel caso classico. Tuttavia, se la posizione del premio non è pienamente casuale in senso quantistico, il giocatore può fare ancora meglio, e in determinati casi vincere con probabilità pari a uno. È disponibile in rete un articolo [6] al riguardo, nonché un'applet [7] che illustra gli effetti così descritti. Nella letteratura e nel cinema • Questo problema viene citato, con tanto di due dimostrazioni (intuitiva e matematica), nel libro di Mark Haddon Lo strano caso del cane ucciso a mezzanotte, dove il giovane protagonista propone il quesito ai lettori.[8] • Un'altra citazione del problema si ha nel telefilm Numb3rs.[9] • Nel film 21, il professore Mickey Rosa propone il problema al protagonista del film, l'allievo Ben Campbell, che lo risolve brillantemente. • Anche la scrittrice Scarlett Thomas nel suo libro PopCo cita questo problema, definendolo Dilemma di Monty Hall[10] • Nel libro "I conigli di Schrödinger" di Colin Bruce, viene illustrato il Problema di Monty Hall.[11] 134 Problema di Monty Hall Note [1] http:/ / www. letsmakeadeal. com/ problem. htm [2] (EN) Grinstead, Charles M. and Snell, J. Laurie, Grinstead and Snell’s Introduction to Probability (http:/ / www. math. dartmouth. edu/ ~prob/ prob/ prob. pdf) (PDF), 4 luglio 2006, pp. 136-139. URL consultato il 4 luglio 2012. [3] (EN) David Morin, Probability (http:/ / www. people. fas. harvard. edu/ ~djmorin/ probability. pdf), p. 49 [4] Rosenthal, Jeffrey S. (2005a). "Monty Hall, Monty Fall, Monty Crawl" (http:/ / probability. ca/ jeff/ writing/ montyfall. pdf). Math Horizons: September issue,5–7 (in inglese). URL consultato in data 12 luglio 2012. [5] Restricted Choice Article (http:/ / www. acbl-district13. org/ artic003. htm) [6] http:/ / xxx. lanl. gov/ abs/ quant-ph/ 0202120 [7] http:/ / www. imaph. tu-bs. de/ qi/ monty/ [8] p. 77, 78, 79 e 80. Mark Haddon, Lo strano caso del cane ucciso a mezzanotte, Einaudi (2003) [9] Numb3rs - Episodio 1.13, Caccia all'uomo [10] Scarlett Thomas, PopCo Newton Compton Editori (2007) [11] p.75,76,77.Colin Bruce, I conigli di Schrödinger, Raffaello Cortina Editore (2006) Bibliografia • (EN) Bapeswara Rao, V. V. e Rao, M. Bhaskara (1992). A three-door game show and some of its variants. The Mathematical Scientist 17(2), 89–94 • (EN) Bohl, Alan H.; Liberatore, Matthew J.; e Nydick, Robert L. (1995). A Tale of Two Goats... and a Car, or The Importance of Assumptions in Problem Solutions. Journal of Recreational Mathematics 1995, 1–9. • Joseph Bertrand (1889). Calcul des probabilités • (EN) Gardner, Martin (1959). Rubrica "Mathematical Games", Scientific American, Ottobre 1959, 180–182. • (EN) Mueser, Peter R. e Granberg, Donald (1999). The Monty Hall Dilemma Revisited: Understanding the Interaction of Problem Definition and Decision Making (University of Missouri Working Paper 99-06). http:// econwpa.wustl.edu:80/eps/exp/papers/9906/9906001.html (retrieved July 5, 2005). • (EN) Nahin, Paul J. (2000). Duelling idiots and other probability puzzlers. Princeton University Press, Princeton, NJ, 192-193. ISBN 0-691-00979-1 • (EN) Selvin, Steve (1975a). A problem in probability (letter to the editor). American Statistician 29(1):67 (Febbraio 1975). • (EN) Selvin, Steve (1975b). On the Monty Hall problem (letter to the editor). American Statistician 29(3):134 (Agosto 1975). • (EN) Tierney, John (1991). Behind Monty Hall's Doors: Puzzle, Debate and Answer?, The New York Times 21 luglio 1991, Domenica, Section 1; Part 1; Page 1; Column 5 • vos Savant, Marilyn (1990). Rubrica Ask Marilyn, Parade Magazine 12 (17 febbraio 1990). [citata in Bohl et al., 1995] • (EN) Adams, Cecil (1990). On 'Let's Make a Deal,' you pick Door #1. Monty opens Door #2--no prize. Do you stay with Door #1 or switch to #3?, The Straight Dope 2 novembre 1990. http://www.straightdope.com/ classics/a3_189.html (consultata il 25 luglio 2005). • (EN) Tijms, Henk (2004). Understanding Probability, Chance Rules in Everyday Life. Cambridge University Press, New York, 213-215. • Haddon, Mark (2003). Lo strano caso del cane ucciso a mezzanotte Einaudi. • Rosenthal, Jeffrey S. (2006). Le regole del caso, istruzioni per l'uso, Longanesi, Milano, ISBN 88-304-2370-X • (EN) Rosenhouse, Jason (2009). The Monty Hall Problem, Oxford University Press ISBN 978-0-19-536789-8 135 Problema di Monty Hall Voci correlate • Paradosso delle tre carte Altri progetti • Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Monty Hall problem Collegamenti esterni • Simulazione fino a 100.000 tentativi (http://utenti.quipo.it/base5/probabil/montyhall.htm) • Simulatore giocabile del paradosso (http://www.taravella.eu/content/view/14/27/) Paradosso delle tre carte Viene detto paradosso delle tre carte un classico problema del calcolo delle probabilità che pur nella sua semplicità ha una soluzione abbastanza controintuitiva: ci sono tre carte, delle quali la prima (A) è rossa su entrambi i lati, la seconda (B) su un lato è rossa e sull'altro è bianca e la terza (C) è bianca su entrambi i lati. Ponendo su un tavolo una delle tre carte, scelta a caso, ottengo che il lato visibile è di colore rosso. Qual è la probabilità che anche il lato non visibile sia di colore rosso? La risposta intuitiva porta solitamente a rispondere che la probabilità ricercata sia pari al 50%, in quanto solo due carte (la A e la B) possono mostrare il colore rosso e solo una di queste (la A) può mostrare anche sull'altro lato il colore rosso; tuttavia si dimostra che la risposta giusta è 2/3. Soluzione Ci sono in tutto 6 facce, delle quali 3 sono rosse e 3 sono bianche. Denominiamo 1 e 2 le due facce che appartengono alla carta rossa su entrambi i lati; denominiamo 3 la faccia rossa della carta rossa su un lato e bianca sull'altro. È possibile che la faccia visibile all'inizio del gioco sia 1, 2 o 3, con uguale probabilità. Su tre possibili casi, due comportano che la faccia non visibile sia rossa: 1 e 2. Pertanto la probabilità che il lato non visibile sia rosso è di 2/3. L'intuizione suggerisce la risposta sbagliata perché porta a non distinguere le facce 1 e 2 come eventi distinti. Dimostrazione assiomatica o frequentista Estraendo una carta e posandola sul tavolo si possono verificare i seguenti sei casi equoprobabili, che possono capitare in maniera egualmente frequente 1. 2. 3. 4. 5. 6. lato visibile = Aa = rosso, lato nascosto = Ab = rosso lato visibile = Ab = rosso, lato nascosto = Aa = rosso lato visibile = Ba = rosso, lato nascosto = Bb = bianco lato visibile = Bb = bianco, lato nascosto = Ba = rosso lato visibile = Ca = bianco, lato nascosto = Cb = bianco lato visibile = Cb = bianco, lato nascosto = Ca = bianco escludendo gli ultimi tre casi in quanto il lato visibile è bianco, rimangono tre casi dove il lato visibile è rosso, due dei quali nascondono un lato anch'esso rosso, dunque la probabilità è di 2/3. 136 Paradosso delle tre carte Dimostrazione con il teorema di Bayes La probabilità condizionata cercata è Pr(lato invisibile è rosso | lato scoperto è rosso) dove i lati rossi sono: Aa, Ab e Ba (e quelli bianchi: Bb, Ca, Cb), per cui si può scrivere Pr(Aa+Ab+Ba|Aa+Ab+Ba) che, utilizzando il teorema di Bayes viene riformulata in = Pr(Aa+Ab+Ba|Aa+Ab+Ba) * Pr(Aa+Ab+Ba) / ( Pr(Aa+Ab+Ba|Aa+Ab+Ba) * Pr(Aa+Ab+Ba) + Pr(Aa+Ab+Ba|Bb+Ca+Cb) * Pr(Bb+Ca+Cb) ) Essendo Pr(Aa+Ab+Ba)=1/2, ovvero metà dei lati sono rossi Pr(Bb+Ca+Cb)=1/2, e l'altra metà sono bianchi Pr(Aa+Ab+Ba|Aa+Ab+Ba) = Pr(Aa|Aa+Ab+Ba) + Pr(Ab|Aa+Ab+Ba) + Pr(Ba|Aa+Ab+Ba) = 1/3 + 1/3 + 0 = 2/3 Pr(Aa|Aa+Ab+Ba) = Pr(Aa+Ab+Ba|Aa) * Pr(Aa) / Pr(Aa+Ab+Ba) = 1 * 1/6 * 2 = 2/6 = 1/3 Pr(Aa+Ab+Ba|Aa) = Pr(Aa|Aa) + Pr(Ab|Aa) + Pr(Ba|Aa)= 0+1+0 = 1 Pr(Aa) = 1/6 Pr(Aa+Ab+Ba) = 1/2 Pr(Ab|Aa+Ab+Ba) = 1/3, ottenuto in modo analogo Pr(Ba|Aa+Ab+Ba) = 0, comprensibile in modo intuitivo, in quanto se il lato visibile appartiene alla carta A il retro non può appartenere alla carta B e se il lato visibile è Ba non è possibile che anche il lato coperto sia Ba: Pr(Aa+Ab+Ba|Ba) = Pr(Aa|Ba) + Pr(Ab|Ba) + Pr(Ba|Ba)= 0 + 0 + 0 = 0 in maniera analoga si mostra che Pr(Aa+Ab+Ba|Bb+Ca+Cb) = Pr(Aa|Bb+Ca+Cb) + Pr(Ab|Bb+Ca+Cb)+ Pr(Ba|Bb+Ca+Cb) = 0 + 0 + 1/3 = 1/3 per cui Pr(lato invisibile è Rosso | lato scoperto è rosso) = 2/3*1/2 / (2/3*1/2 + 1/3*1/2) = 2/3 Le origini Questo è il testo originale del paradosso, proposto da Warren Weaver nel 1950: « Giochiamo con tre carte. Una è bianca su entrambi i lati, una è rossa su entrambi i lati e una è bianca da un lato e rossa dall'altro. Ogni carta è nascosta in una scatoletta nera. Il giocatore sceglie una delle tre scatolette, estrae la carta e la posa sul tavolo in modo che sia visibile un solo lato. Supponiamo che il lato che si vede sia bianco. Il conduttore propone al giocatore di scommettere alla pari che è bianco anche l'altro lato della carta (se è bianco vince il conduttore, se è rosso vince il giocatore). Conviene al giocatore accettare la scommessa? Perché? » 137 Paradosso delle tre carte Paradosso delle tre scatole In realtà, una versione perfettamente analoga del problema era già stata presentata da Joseph Bertrand nel suo libro Calcul des probabilités: ci sono tre scatole, di cui la prima contiene due monete d'oro, la seconda due monete d'argento e la terza una d'oro ed una d'argento: se estraendo una moneta a caso da una scatola a caso ci si ritrova in mano una moneta d'oro, qual è la probabilità che anche l'altra nella scatola lo sia? La soluzione è anche in questo caso 2/3. Voci correlate • Problema di Monty Hall • Warren Weaver e Martin Gardner, che hanno descritto questo problema • Paradosso dei due bambini Paradosso dei due bambini Viene detto paradosso dei due bambini un celebre quesito della teoria della probabilità, apparentemente semplice ma in realtà ambiguo e il cui studio porta ad una risposta controintuitiva. Esso è spesso citato per mettere in evidenza la facilità con la quale nell'ambito della probabilità può nascere confusione anche in contesti che a prima vista sembrano nient'affatto complicati da analizzare. Il nome con cui viene chiamato comunemente questo problema viene dall'inglese "Boy or Girl paradox"; tuttavia il termine italiano "paradosso" ha un senso più preciso e restrittivo del "paradox" inglese, e non designa problemi come questo, che tecnicamente è piuttosto un sofisma. Quesito Il quesito in questione è, in una delle prime formulazioni (proposta da Martin Gardner sulle pagine del Scientific American): "Il signor Smith ha due bambini. Almeno uno dei due è un maschio. Qual è la probabilità che entrambi i bambini siano maschi?" La risposta intuitiva è che se, poniamo, è maschio il primo bambino, la probabilità che anche l'altro lo sia è 1/2=50%. In realtà, come riconosciuto da Gardner stesso, la domanda è posta in modo ambiguo (è facile pensare che con "almeno uno" si intenda "sicuramente uno che ho chiaramente individuato - ed eventualmente anche l'altro"), e una possibile riformulazione - intuitivamente equivalente - che non dia adito ad ambiguità è la seguente: "Il signor Smith ha due bambini. Non sono due femmine. Qual è la probabilità che entrambi i bambini siano maschi?" Non è difficile, utilizzando semplici strumenti di probabilità classica, scoprire che la risposta è allora 1/3=33,3%. Di seguito le possibili combinazioni dei figli che rispettano le condizioni date: 138 Paradosso dei due bambini 139 Figlio maggiore Figlio minore Femmina Femmina Femmina Maschio Maschio Femmina Maschio Maschio Si osservi che questo cosiddetto paradosso non ha nulla a che vedere con il fatto che in natura nella grande maggioranza dei paesi nascano leggermente più maschi che femmine; si assume invece che la probabilità di un figlio maschio sia a priori uguale a quella di una figlia femmina: 1/2. Dimostrazione assiomatica o frequentista Su 100 famiglie che hanno esattamente due figli, si osserveranno in media le seguenti quattro combinazioni: 1. 2. 3. 4. 25 famiglie il cui primo figlio è maschio e il secondo pure 25 famiglie il cui primo figlio è maschio e il secondo invece femmina 25 famiglie il cui primo figlio è femmina e il secondo invece maschio 25 famiglie il cui primo figlio è femmina e il secondo pure La domanda prende in considerazione i primi tre casi, ovvero non quello in cui ci sono due femmine: si tratta di 75 famiglie. Nelle 25 famiglie del primo caso entrambi i figli sono maschi, mentre nelle 25+25=50 famiglie del secondo e terzo caso ci sono un maschio ed una femmina. Pertanto la probabilità che entrambi siano maschi è pari a 25/75=1/3. Una domanda simile con risposta corretta pari a 1/2 L'ambiguità è nell'espressione "almeno un bambino", che porta a intendere questo "paradosso" nella seguente formulazione, in apparenza equivalente: sapendo che una famiglia ha esattamente due bambini, dei quali il primo è un maschio, quant'è la probabilità che l'altro bambino sia una femmina? In questo caso la risposta intuitiva (1/2=50%) è corretta. Infatti in metà delle famiglie (casi 1 e 2) il primo figlio è maschio e di queste nella metà dei casi (caso 1) anche il secondo è maschio. Di seguito le possibili combinazioni dei figli che rispettano le diverse condizioni poste: Figlio maggiore Figlio minore Femmina Femmina Femmina Maschio Maschio Femmina Maschio Maschio Ma con le parole "almeno un bambino", non stiamo individuando uno dei due figli in particolare (cioè se è il primo o il secondo). Le parole "l'altro bambino" invece ci portano spontaneamente ad immaginare che l'"almeno uno" indichi un bambino specifico (ad esempio che chi ci pone la domanda ne abbia chiaro in mente il volto e se è il primo o il secondo) ed a forzare quindi il significato della prima parte della domanda. Paradosso dei due bambini Un'altra domanda simile con risposta corretta pari a 1/2 Un'altra domanda simile è la seguente: "In un mondo nel quale tutte le famiglie hanno esattamente due bambini (p.es. nell'associazione "Famiglie con due figli"), incontrando un maschietto, quant'è la probabilità che abbia una sorella?" Anche in questo caso la risposta intuitiva (1/2=50%) è anche quella corretta. Infatti analizzando in modo leggermente diverso l'elenco di cui sopra 1. 2. 3. 4. 25 famiglie il cui primo figlio (gruppo A1) è maschio e il secondo (gruppo A2) pure 25 famiglie il cui primo figlio (gruppo B1) è maschio e il secondo (gruppo B2) invece femmina 25 famiglie il cui primo figlio (gruppo C1) è femmina e il secondo (gruppo C2) invece maschio 25 famiglie il cui primo figlio (gruppo D1) è femmina e il secondo (gruppo D2) pure si osserva che incontrando un maschietto questo deve appartenere ad uno dei seguenti quattro gruppi: • • • • 25 (primogeniti) del gruppo A1, che non hanno sorelle 25 (secondogeniti) del gruppo A2, che non hanno sorelle (si tratta dei fratelli di bambini del gruppo A1) 25 (primogeniti) B1, che hanno una sorella (minore) 25 (secondogeniti) C2, che hanno una sorella (maggiore) In totale ci sono dunque 100 maschietti, dei quali 25+25=50 hanno una sorella, di conseguenza la probabilità cercata è effettivamente pari a 50/100=1/2=50%. Studio scientifico Fox & Levav nel 2004 hanno sottoposto ad un test alcuni volontari, ponendo loro una delle seguenti due domande: • «Il signor Smith dice: "Ho due bambini ed almeno uno è un maschio." Considerando questa informazione, qual è la probabilità che l'altro bambino sia un maschio?» • «Il signor Smith dice: "Ho due bambini e non sono entrambi femmine." Considerando questa informazione, qual è la probabilità che entrambi i bambini siano maschi?» I due studiosi hanno riportato che l'85% delle persone che hanno risposto alla prima domanda, hanno fornito come risposta 1/2 considerando solo 2 possibili combinazioni, ingannati dalle parole " l'altro bambino ". Alla seconda domanda, solamente il 39% ha risposto 1/2. Gli studiosi hanno così dimostrato che pur essendo (a livello di calcolo delle probabilità) la stessa domanda con gli stessi casi da considerare, la diversa formulazione ha ridotto l'ambiguità e di conseguenza le risposte errate del 46%. Note Voci correlate • Probabilità condizionata • Paradosso delle tre carte • Problema di Monty Hall 140 Paradosso del compleanno 141 Paradosso del compleanno Il paradosso[1] del compleanno (o problema del compleanno) è un paradosso di teoria della probabilità definito nel 1939 da Richard von Mises. Il paradosso afferma che la probabilità che almeno due persone in un gruppo compiano gli anni lo stesso giorno è largamente superiore a quanto potrebbe dire l'intuito: infatti già in un gruppo di 23 persone la probabilità è circa 0,51; con 30 persone essa supera 0,70, con 50 persone tocca addirittura 0,97, anche se per arrivare all'evento certo occorre considerare un gruppo di almeno 367 persone (per il principio dei cassetti e la possibilità di anni bisestili). Il grafico mostra l'andamento di P(p) al crescere del numero di persone Per effettuare il calcolo, si ricorre alla formula per la probabilità degli eventi indipendenti: per rendere più semplice il calcolo si assume che gli anni siano tutti di 365 giorni e che i compleanni siano equiprobabili, anche se ciò non è esatto[2]. Aggiungere il giorno bisestile peggiora leggermente la probabilità, ma in compenso il fatto che i compleanni non siano equiprobabili la alza. Il modo più semplice per calcolare la probabilità P(p) che ci siano almeno due persone appartenenti ad un gruppo di p persone che compiano gli anni lo stesso giorno è calcolare dapprima la probabilità P1(p) che ciò non accada. Il ragionamento è questo: data una qualunque persona del gruppo (indipendentemente dalla data del suo compleanno), vi sono 364 casi su 365 in cui il compleanno di una seconda persona avvenga in un giorno diverso; se si considera una terza persona, ci sono 363 casi su 365 in cui compie gli anni in un giorno diverso dalle prime due persone e via dicendo. Esprimendo in formule quanto sopra, la probabilità che tutti i compleanni cadano in date diverse è: e dunque la probabilità del suo evento complementare, cioè che esistano almeno due compleanni uguali, è Questo paradosso ha importanti ricadute nella crittografia e nel dimensionamento del blocco da cifrare. In particolare nell'ambito della crittografia si utilizza il paradosso del compleanno per indicare che le funzioni hash crittografiche abbiano la proprietà di "resistenza forte alle collisioni". Ad esempio una funzione di hash che produce un risultato su N bit sarà reputata insicura quando verranno generati risultati in quanto si ha la probabilità di oltre il 50% di aver trovato una collisione, il risultato evidentemente è ben al di sotto dei elementi necessari suggeriti dall'intuito. Paradosso del compleanno 142 Note [1] Il termine paradosso non è da intendersi nel senso di una contraddizione logica, ma viene chiamato in questo modo poiché la verità matematica contraddice l'intuizione naturale: molte persone stimano che questa probabilità sia decisamente inferiore al 50%. [2] (EN) Leap Day -- from Eric Weisstein's World of Astronomy (http:/ / scienceworld. wolfram. com/ astronomy/ LeapDay. html). URL consultato in data 22-04-2009. Collegamenti esterni • Il paradosso del compleanno (http://www.teacherlink.org/content/math/interactive/probability/lessonplans/ birthday/home.html) Blackjack Blackjack Una partita a Blackjack Luogo origine Francese Regole N° giocatori Squadre Giro Azzardo Mazzo 7 + Banco No Senso orario Sì 2 mazzi di 52 carte Gerarchia semi No Gerarchia carte No Il Black Jack (in italiano chiamato anche Ventuno) è un gioco d'azzardo di carte che si svolge tra il banco, rappresentato dal casinò, e i giocatori. Vincono i giocatori che realizzano un punteggio più alto del banco non superiore a 21. Blackjack Storia Il gioco è nato in Francia nel XVII secolo, con il nome di Vingt-et-un (ossia "ventuno"). Una volta approdato negli Stati Uniti il gioco del ventuno venne denominato Black Jack (fante nero) con l'introduzione di una variante: qualora il giocatore facesse 21 con un asso e un jack di picche, veniva pagato con un bonus di dieci volte la posta. Anche se attualmente il bonus è stato abolito, il nome comunque è rimasto. Le carte Di norma il Black Jack viene usato con un sabot formato da 2 mazzi di carte francesi, per un totale di 104 carte. Nel gioco l'asso può valere 11, o 1, le figure valgono 10, mentre le altre carte valgono il loro valore nominale. I semi non hanno alcuna influenza, o valore. La somma dei punti, al fine del calcolo del punteggio, avviene per semplice calcolo aritmetico. Svolgimento del gioco Una volta che i giocatori hanno fatto la loro puntata, il banchiere procedendo da sinistra verso destra assegna a ciascuno dei giocatori una carta coperta in ogni postazione giocata, assegnando l'ultima al banco. Effettua poi un secondo giro di carte scoperte, senza però attribuirne una a se stesso. Avvenuta la distribuzione, il dealer legge in ordine il punteggio di ciascun giocatore invitandoli a manifestare il loro gioco: essi potranno chiedere carta o stare, a loro discrezione. Se un giocatore supera il 21 risulta perdente e il dealer incasserà la puntata. Una volta che i giocatori hanno definito i loro punteggi il dealer sviluppa il suo gioco seguendo la "regola del banco": egli deve tirare carta con un punteggio inferiore o uguale a 16. Una volta superato il 16 si deve fermare. Se oltrepassa il 21 il banco "sballa" e deve pagare tutte le puntate rimaste sul tavolo. Una volta definiti tutti i punteggi, il dealer confronta il proprio con quello degli altri giocatori, paga le combinazioni superiori alla sua, ritira quelle inferiori e lascia quelle in parità. Il pagamento delle puntate vincenti è alla pari. Il Black Jack puro Il Black Jack puro si ottiene quando il giocatore fa 21 con le prime due carte assegnateli dal dealer, e si può fare solo con un Asso di picche (11) e un Jack di picche; questo punteggio batte il banco anche se totalizza 21. Il Black Jack Il giocatore che fa 21 con le prime due carte assegnategli dal dealer, cioè riceve un Asso (11) e un dieci o una figura, forma il black jack e ha diritto al pagamento di 3 a 2 (una volta e mezzo la posta, cioè, la somma scommessa x 1,5); se il dealer realizza anche lui il black jack la mano è considerata alla pari. Il raddoppio della puntata (double down) I giocatori hanno una particolare opzione di giocata: se con le prime due carte hanno realizzato da 9 a 15 punti, possono raddoppiare la puntata al momento della chiamata ma impegnandosi a chiedere una sola carta, e dopo aver ricevuto questa carta il giocatore è obbligato a fermarsi. La divisione (split) Se nella prima distribuzione il giocatore riceve due carte dello stesso valore può effettuare lo split e cioè: • separare le due carte e aggiungere un'uguale puntata sulla seconda; • proseguire il gioco come se il giocatore avesse due prime carte; • aggiungere una carta su ciascuna carta separata. Nel caso di due Assi il gioco doppio è consentito ma con diritto a una sola chiamata. 143 Blackjack Strategia per lo split Gli "split" nella dimensione di gioco britannica non pongono limiti al numero delle divisioni delle carte uguali sebbene venga proibito al giocatore di "splittare" i quattro, i cinque e le figure, che l'istituto di regolamentazione del gioco in Gran Bretagna ha valutato statisticamente come scommesse svantaggiose nei confronti del giocatore. Un buon giocatore di black jack potrà all'occorrenza "splittare" i quattro e i cinque ma mai dovrebbe azzardare lo split di due figure. L'assicurazione (insurance) Quando il banchiere si serve un Asso come carta scoperta, vi è la possibilità che faccia Black Jack con la seconda carta, quindi i giocatori possono ricorrere all'Assicurazione. La posta dell'Assicurazione equivale alla metà della puntata di base (quella sulla casella, per esempio: se il giocatore ha puntato 100 l'Assicurazione vale 50). Nel caso il banco realizzi Black Jack il giocatore perderà tutta la puntata iniziale, ma verrà risarcito con il doppio del valore dell'assicurazione (2:1): in pratica è come se la mano si concludesse con un "pari". Nel caso il banco non realizzi un Black Jack l'assicurazione viene comunque persa indipendentemente dal risultato della mano. Le diverse versioni In Europa le carte sono scoperte: due per ciascun giocatore, una per il banco. Negli USA inoltre, il banco, oltre alla sua carta scoperta, prende subito l'altra, che rimane però coperta. In vari casinò si possono "splittare" (separare) le carte uguali fino a tre volte, eccetto gli assi che possono essere separati solo una volta. Dopo lo split si può spesso (ma non dappertutto) raddoppiare la puntata. In genere non si possono raddoppiare le mani soft (un asso con una carta che non sia figura). Esistono tuttavia dei casinò che permettono di raddoppiare con qualsiasi combinazione iniziale. Tra le varianti di Blackjack troviamo: Classico, Europeo, Spagnolo 21, Vegas Strip, Atlantic City, Blackjack Switch, Multi-mano. Strategia La strategia del gioco varia a seconda delle regole locali e del numero dei mazzi usati. Al di là della scelta se partecipare o meno al gioco, e alla posta puntata nella singola mano e alla possibilità di raddoppiare la posta, l'unica scelta lasciata al giocatore è quella di stabilire se chiedere un'altra carta (e, se le prime due carte sono uguali, di effettuare uno split, cioè di dividere la propria mano in due). Strategia Base Per effettuare i calcoli delle probabilità nelle varie situazioni sono stati utilizzati anche alcuni dei primi computer a disposizione delle università. In particolare al MIT sono stati realizzati parecchi studi in questo campo. In base a questi calcoli risulta ora possibile, basandosi soltanto sulle carte che si hanno in mano sapere quali sono le probabilità che esca ogni tipo di carta. Basandosi su tali probabilità, è stata calcolata una regola (Strategia Base) che stabilisce quale sia la decisione migliore da effettuare nelle varie circostanze. 144 Blackjack 145 Mano del giocatore Carta scoperta del Banco 2 3 4 5 6 7 8 9 10 A S S S Totali hard 17-20 S S S S S S S 16 S S S S S H H SU SU SU 15 S S S S S H H H SU H 13-14 S S S S S H H H H H 12 H H S S S H H H H H 11 Dh Dh Dh Dh Dh Dh Dh Dh Dh H 10 Dh Dh Dh Dh Dh Dh Dh Dh H H 9 H Dh Dh Dh Dh H H H H H 5-8 H H H H H H H H H H Totali soft 2 3 4 5 6 7 8 9 10 A A,8 A,9 S S S S S S S S S S A,7 S Ds Ds Ds Ds S S H H H A,6 H Dh Dh Dh Dh H H H H H A,4 A,5 H H Dh Dh Dh H H H H H A,2 A,3 H H H H H H H H 7 8 9 10 A Dh Dh Coppie 2 3 4 5 6 A,A SP SP SP SP SP SP SP SP SP SP 10,10 S S S S S S S 9,9 SP SP SP SP SP S SP SP S S 8,8 SP SP SP SP SP SP SP SP SP SP 7,7 SP SP SP SP SP SP H H H H 6,6 SP SP SP SP SP H H H H 5,5 Dh Dh Dh Dh Dh Dh Dh Dh H H 4,4 H 2,2 3,3 S H S H S SP SP H H H H H H SP SP SP SP SP SP H H H H Legenda: S = Stand (Stare) H = Hit (Carta) Dh = Double (Raddoppio. Se non permesso, chiedere carta) Ds = Double (Raddoppio. Se non permesso, stare) SP = Split (Divisione) SU = Surrender (Resa. Se non permessa, chiedere carta) Questa strategia si applica con 3 o più mazzi di carte, il banco sta sui 17 soft, raddoppio su tutte le coppie, raddoppio dopo la suddivisione consentito e blackjack che paga 3:2. Blackjack Contare le carte Questi calcoli e questa regola si basano soltanto sulle carte in gioco in quel momento. Tuttavia è possibile sviluppare una ulteriore strategia dovuta al fatto che il numero di carte presenti al tavolo da gioco (cioè il numero dei mazzi utilizzati) è fisso e al fatto che le carte vengono mescolate soltanto all'inizio del gioco e si continua a giocare tra una mano e l'altra senza rimescolare le carte, ma continuando ad utilizzare le carte rimanenti nel mazzo. Le carte vengono rimescolate soltanto quando si raggiunge il cartoncino divisorio che di solito è posto intorno alla metà del sabot. Tale carta divisoria determina la percentuale di penetrazione del mazzo, cioè il numero di carte che verranno distribuite (rispetto alla totalità presente nei mazzi) prima che abbia luogo la mischiata. Più tale percentuale è alta e maggiori saranno i vantaggi per il giocatore.[1] Risulta pertanto possibile, anche se particolarmente difficile, ricordarsi quali carte sono già uscite e sapere quindi quali rimangono nel mazzo. L'alto numero delle carte utilizzate rende difficile ricordare individualmente le singole carte; risulta però possibile (anche se rimane difficile) ricordare se dal mazzo sono uscite più carte di basso valore che carte di alto valore e di conseguenza calcolare la probabilità che dal mazzo venga pescata una carta di valore alto o basso. Tale tecnica viene indicata con il nome di contare le carte. Una situazione con un mazzo di carte con più carte alte che basse è favorevole al giocatore e sfavorevole al banco (perché aumenta la probabilità del banco di superare il 21, dal momento che il banco agisce in modo fisso, che consiste nel continuare a prendere un'ulteriore carta fintanto che non supera tutti i giocatori o finché non arriva a 17, e per altri motivi). Questa difficile tecnica permette pertanto di conoscere quale sia il momento più propizio per effettuare puntate più alte. Del Black Jack esistono anche alcune versioni per essere giocate tra tutti giocatori, in cui la parte del mazziere viene alternata tra i vari giocatori. All'interno delle case da gioco invece il ruolo del mazziere è sempre tenuto dal personale della casa. Stu Ungar Stu Ungar, dotato di un quoziente intellettivo che lo classificava come "genio", e di una straordinaria memoria fotografica, era in grado di contare tutte le carte presenti in un sabot di blackjack composto da sei mazzi di carte. Nel 1977 scommise 100.000 dollari con Bob Stupack, proprietario di un casinò a Las Vegas, che sarebbe riuscito a contare tutte le carte di un sabot di blackjack composto da sei mazzi, indovinando le ultime tre carte. Ungar vinse la scommessa. Stu fu condannato nel 1982 dalla Commissione del New Jersey sul Gioco d'Azzardo, per presumibile imbroglio al tavolo di blackjack in un casinò di Atlantic City. Il casinò sostenne che Ungar ponesse di nascosto delle fiches extra sulle sue giocate vincenti, per garantirsi una vincita maggiore. Ungar negò sempre con forza l'accaduto. La condanna gli impose di pagare 500 dollari, cifra quasi insignificante per lui, ma allo stesso tempo lo obbligava ad ammettere di barare, cosa che si rifiutò sempre di fare: Ungar sosteneva che la sua memoria e l'abilità nel contare le carte (tecnica non illegale) fossero doti naturali, e che per questo non aveva bisogno in alcun modo di barare al tavolo da blackjack. Ungar portò la causa in tribunale e vinse, evitando la multa di 500 dollari; dovette, comunque, pagare circa 50.000 dollari in spese legali e di viaggio. La sua reputazione restò intatta ma, nella sua biografia, dirà che la stanchezza per i viaggi ed i dibattimenti fu tale da non permettergli di difendere il titolo nelle WSOP. Il suo talento e la sua reputazione erano talmente notevoli da farlo escludere dal gioco nei casinò. Era virtualmente impossibilitato a giocare a blackjack sia a Las Vegas che in qualunque altro posto. 146 Blackjack 147 Curiosità Il film 21 si basa sullo sfruttamento di questo metodo per ottenere vittorie sicure. Note [1] Penetrazione del mazzo (http:/ / www. blackjack-online. bz/ contare-carte/ #penetrazione) Voci correlate • 21 (film) • Edward O. Thorp Poker Poker Luogo origine [1] Statunitense Regole N° giocatori Squadre Giro Azzardo Mazzo 3, 4, 5, 6 (versione italiana) [1] No Senso orario Sì [1] 52 carte in numero variabile dipendente dal numero dei giocatori Gerarchia semi Cuori, Quadri, Fiori, Picche Gerarchia carte A, K, Q, J, 10, 9, 8, 7, 6, 5, 4, 3, 2 David Sklansky alle World Series di Poker del 1979 « Se non riesci a individuare il pollo al tavolo da poker nella prima mezz'ora, allora il pollo sei tu. » Poker Il poker è una famiglia di giochi di carte nella quale alcune varianti sono classificabili come gioco d'azzardo, altre come poker sportivo. Tali giochi sono caratterizzati da un sistema di combinazioni formate con le carte di ciascun giocatore (il cui confronto determina il vincitore di ogni mano) e da un meccanismo di puntate successive che offre molte possibilità tattiche e di influenza sugli altri giocatori, consentendo in particolare di ritirarsi con perdite contenute dalle mani che non si ritiene di poter vincere. Il grande successo del poker è dovuto al fatto che l'abilità del giocatore è molto più importante rispetto ad altri giochi d'azzardo, al punto da consentire l'esistenza di giocatori professionisti: la fortuna è ovviamente determinante per le singole mani ma la valutazione delle probabilità, l'osservazione del comportamento degli altri giocatori al fine di intuire le loro combinazioni e l'esecuzione di bluff per indurli in errore fanno la differenza nell'arco di una partita. Se le puntate sono costituite da denaro vero si tratta di cash game, ossia di gioco d'azzardo. A partire dall'inizio degli anni novanta si è aperta per i giocatori la possibilità di giocare a Poker online, cioè collegandosi mediante Internet a sale da Poker organizzate e sedendosi a tavoli virtuali ai quali si gioca contro altre persone connesse dal proprio computer domestico. Tale sistema di gioco è cresciuto progressivamente negli anni successivi, e costituisce oggi la principale modalità con la quale il poker è praticato a livello mondiale. Il gioco Il poker è giocato in una moltitudine di specialità e varianti, ma tutte seguono una medesima logica di gioco. Le carte vengono distribuite in senso orario e allo stesso modo cambia il mazziere (dealer). Egli viene generalmente segnalato con un bottone che diventa unico elemento per identificarlo e determinare, quindi, le puntate obbligatorie o i turni di gioco. Per ogni mano uno o più giocatori devono porre una puntata obbligatoria (cip) che serve alla creazione di un piatto iniziale che i giocatori potranno contendersi. Il mazziere distribuisce le carte, coperte o scoperte, in base alle regole della specialità giocata. Quindi cominciano, sempre secondo le regole della specialità giocata, i giri di scommesse, nel quale a turno, ogni giocatore ha facoltà di "parlare", ossia di eseguire un'azione. Si gioca sempre in senso orario. Le possibilità principali sono le seguenti: • puntare (bet): il primo giocatore che apre il giro di scommesse mette una certa somma nel piatto; • bussare o passare/dare la parola (check): il primo giocatore che apre il giro di scommesse può decidere al momento di non puntare, il giocatore successivo a colui che ha passato deciderà se puntare o passare e così vale anche per gli altri giocatori. Se tutti i giocatori passano il giro di scommesse è chiuso. Un giocatore non può passare se il giocatore precedente ha puntato; • vedere o chiamare (call): dopo che il giocatore ha puntato, gli altri giocatori sono obbligati a puntare almeno altrettanto oppure uscire dalla mano. • rilanciare (raise): un giocatore può scommettere una somma maggiore del minimo richiesto per restare in gioco, ovviamente tutti gli altri giocatori sono tenuti a vedere o lasciare; • lasciare (fold): un giocatore lascia qualora non sia intenzionato a vedere la puntata o il rilancio, ovvero consegna le carte al mazziere e rinuncia al piatto, perdendo quanto aveva scommesso in precedenza. Un giocatore può lasciare anche se ha possibilità di passare, ma questa scelta non viene mai presa in considerazione perché non ha alcun senso. Alla fine dell'ultimo turno di puntate resta un solo giocatore (ha fatto l'unica puntata e tutti gli altri hanno passato, o ha rilanciato e gli altri rimasti hanno lasciato) o più giocatori che hanno puntato tutti la stessa somma (vedendo la prima puntata o un rilancio successivo); in questo secondo caso, tipicamente più raro, avviene lo showdown: si mostrano le carte dei giocatori e si confronta il punto di ciascuno: vince il punto di maggior valore a seconda della variante. Normalmente il valore corrisponde alla forza della mano. Alcuni giochi, come l'Omaha 8 e lo Stud 8, prevedono la ripartizione del piatto in parti uguali fra la mano col valore più alto e quella col valore più basso. In altri giochi, fra cui Razz, 2-7 Single Draw e 2-7 Triple Draw, il piatto viene assegnato al giocatore che ha la mano 148 Poker 149 più bassa. Il giocatore che è in possesso del punto di maggior valore vince la mano e ha diritto di impossessarsi delle fiches (o dei contanti) dei giocatori che hanno lasciato in precedenza e di quelli che sono stati sconfitti allo showdown. Nel caso in cui due o più giocatori fossero in possesso dello stesso punto (caso molto raro), il piatto viene diviso (split pot) in parti uguali ed ognuno dei suddetti giocatori ha diritto ad una parte del piatto. Normalmente, durante le partite di poker vige la regola delle "chip al tavolo" secondo la quale, durante una mano, possono essere puntate esclusivamente le chip presenti sul tavolo sin dall'inizio della mano in questione. Ne consegue che un giocatore non in grado di coprire una puntata o un rilancio effettuato da un avversario, in quanto non possiede abbastanza chip, è costretto ad abbandonare la mano. Quando un giocatore ha puntato tutte le proprie chip nel piatto, esso è considerato all-in; ulteriori puntate che il giocatore non è in grado di coprire, nel caso in cui nella mano fossero coinvolti più di due giocatori, andranno a costituire un secondo piatto per il quale competeranno solo i giocatori che vi hanno puntato, quindi il giocatore precedentemente in all-in ne è escluso.[2] In ordine cronologico, il piatto primario prende il nome di "Main Pot", mentre i piatto secondari, che vanno quindi a costituirsi successivamente, sono detti "Side Pot". Le specialità del poker possono essere raggruppate in tre categorie: Draw poker Ogni giocatore riceve cinque (nel poker tradizionale) o più carte tutte coperte. I giocatori possono cambiare una o più carte per una o più volte. Stud poker I giocatori ricevono le carte una alla volta, alcune coperte altre scoperte. La maggior differenza tra lo stud e il draw poker è l'impossibilità di cambiare le carte. Community card poker Ogni giocatore riceve un determinato numero di carte coperte (due nel Texas Hold'em o quattro nell'Omaha) e può utilizzare un determinato numero di carte comuni per comporre il proprio punto. Varianti del poker Ogni specialità del poker può avere diverse varianti di gioco: • a limite fisso (limit betting): sono possibili solo tre rilanci per round di scommessa, purché vi siano più di 2 giocatori; inoltre i rilanci stessi sono bloccati con un limite. La scommessa minima è raddoppiata solitamente con il terzo giro di scommessa. • limite al piatto (pot limit betting): diffuso in Europa, al giocatore è impedito di rilanciare una cifra superiore al valore del piatto in quel momento. Serve per evitare che i piatti si ingrossino nel primo giro di scommessa. • senza limiti (no limit): non ci sono limiti di scommessa. • misto (mixed): si alternarno momenti con variante senza limite e a limite fisso. • high-low split Poker 150 Storia Le origini del gioco del poker sono tuttora oggetto di dibattito. Assomiglia molto a un gioco persiano ed è stato probabilmente insegnato ai colonizzatori francesi di New Orleans dai marinai persiani. Il nome deriva, probabilmente, dal termine francese poque (ingannare), che deriva a sua volta dal tedesco pochen. Non è chiaro se il poker derivi direttamente da giochi con quei nomi, tuttavia viene considerato un insieme di tutti questi giochi che ne hanno influenzato lo sviluppo fino al poker che conosciamo ai giorni nostri. La più antica testimonianza si ha dall'attore inglese Joseph Crowel, che lo segnala nel New Orleans, giocato con un mazzo di 20 carte e da 4 giocatori che scommettono su chi ha la combinazione vincente. Il primo libro è di Green Jonathan H., An Exposure of the Arts and Miseries of Gambling (G.B. Zieber, Filadelfia, 1843) che ne descrive la diffusione da lì fino al Mississippi, dove il gioco era un comune passatempo. Subito dopo questa diffusione si inizia ad usare il mazzo francese con 54 carte e si ha l'introduzione del colore. Durante la guerra civile americana si hanno numerose aggiunte e le prime varianti del gioco, draw poker, stud poker e community card poker), seguite da numerose altre come il razz (variante in cui vince il punto più basso) o lo Hi-Lo (variante in cui a vincere il piatto sono 2 o più giocatori). La diffusione del gioco negli altri continenti è attribuito ai militari americani. Doyle Brunson, due volte campione del mondo (1976, 1977, secondo nel 1980) Nel primo novecento il gioco più diffuso è il 7 card stud, ma dopo gli anni 50 si impongono i poker a carte comunitarie, in primis il Texas Hold'em seguito dall'Omaha. La nuova modalità di gioco, il torneo, comincia a diffondersi nei casino americani dopo il primo WSOP (mondiale di poker che si svolge tutti gli anni a Las Vegas) e di lì a poco si ha anche l'uscita dei primi libri di strategia come Super/System di Doyle Brunson (ISBN 1-58042-081-8) e The Book of Tells di Mike Caro (ISBN 0-89746-100-2), seguito poco dopo da The Theory of Poker di David Sklansky (ISBN 1-880685-00-0). Phil Hellmuth Jr, campione del mondo nel 1989, detiene il primato di braccialetti WSOP vinti:11 Negli USA la popolarità del poker ha un'impennata senza precedenti durante i primi anni del XXI secolo, con l'avvento del poker on-line e l'introduzione della telecamera per le carte coperte utilizzata durante i maggiori eventi, ciò che ha contribuito a far diventare il gioco uno sport spettacolare. Gli spettatori possono ora seguire e comprendere l'azione dei giocatori durante i maggiori eventi trasmessi, come il WSOP o il WPT (World Poker Tour), che hanno riscosso enorme successo nella TV satellitare e via cavo. Questa tendenza sta avendo riscontro anche in Europa in cui l'European Poker Tour è giunto alla sua ottava edizione[3] contribuendo all'enorme diffusione a cui si assiste anche in Italia, dove sono sorte le prime associazioni come Italian Rounders. Nel giugno 2006, il Casinò di Sanremo è stata la prima casa da gioco italiana ad ospitare un torneo di Texas Hold'em Poker; ha poi ospitato la tappa italiana dell'European Poker Tour. Poker 151 La formula di gioco utilizzata in questi casi è quella del torneo (per la formula del torneo vedi poker sportivo): il giocatore paga l'iscrizione e riceve delle fiches (chiamate chip) con le quali gioca; finite le fiches il giocatore è eliminato, ad eccezione dei tornei dove è consentito il rebuy. Gli ultimi ad essere eliminati sono i primi classificati del torneo, e si dividono l'ammontare del montepremi (alimentato dalle iscrizioni). Negli ultimi anni le WSOP, il WPT e l'European Poker Tour hanno avuto una notevole crescita anche grazie ai numerosi satelliti organizzati on line, i quali permettono a chiunque di accedere a questi eventi che una volta erano prerogativa di pochi a causa dei costi molto elevati. I campioni del mondo del 2003 e 2004, rispettivamente Chris Moneymaker e Greg Raymer, hanno vinto la loro partecipazione al mondiale (Main Event WSOP) giocando un satellite on line. Anche in Italia il poker in TV ha attecchito: Sportitalia, Sky, Italia 1, 7 Gold e POKERItalia24 (sul digitale terrestre) trasmettono partite di poker che riscuotono un notevole successo tra i telespettatori. Tra i campioni italiani di maggior spessore troviamo Max Pescatori vincitore di due braccialetti alle WSOP, uno nel 2006 e uno nel 2008[4], Luca Pagano che detiene il record delle presenze a premio nell'EPT (ben 18, di cui 6 tavoli finali)[5], Dario Alioto vincitore del torneo di Omaha alle WSOP Europe del 2007[6] e Dario "Caterpillar" Minieri, vincitore dell'evento $2.500 No Limit Hold'Em alle WSOP del 2008[7]. Oltre Pescatori, Alioto e Minieri, l'unico altro italiano ad aver vinto un braccialetto alle WSOP è Valter Farina, che si è aggiudicato l'evento $1.500 Seven Card Stud nel 1995. Viene spesso contrassegnato con la bandiera italiana agli eventi internazionali Jeff Lisandro, vincitore di ben cinque braccialetti, ma in realtà il giocatore è australiano, e ha origini italiane. Note [1] [2] [3] [4] Giochi di carte, di Marina Bono, 1ª edizione luglio 2010, pag. 116, ed. KeyBook, ISBN 978-88-6176-254-1. Regole del poker (http:/ / www. pokerstars. it/ poker/ rules/ ). PokerStars EPT Official Page (http:/ / www. europeanpokertour. com/ ). European Poker Tour The Hendon Mob - Max Pescatori (http:/ / pokerdb. thehendonmob. com/ player. php?a=r& n=3195& sort=place& dir=asc). The Hendon Mob [5] The Hendon Mob - Luca Pagano (http:/ / pokerdb. thehendonmob. com/ player. php?a=r& n=326). The Hendon Mob [6] The Hendon Mob - Dario Alioto (http:/ / pokerdb. thehendonmob. com/ player. php?a=r& n=50080). The Hendon Mob [7] The Hendon Mob - Dario Minieri (http:/ / pokerdb. thehendonmob. com/ player. php?a=r& n=53606& sort=place& dir=asc). The Hendon Mob Voci correlate • • • • • • • • • • • • • • Regole e meccanica del poker Punti del poker Teorema fondamentale del poker Specialità e varianti del poker Poker sportivo WSOP European Poker Tour Federazione Italiana Gioco Poker Cash game Gioco Giochi con le carte Giocatore professionista di poker Skill games PokerTH • Lista di videogiochi di poker Poker 152 Altri progetti • Wikibooks contiene testi o manuali: http://it.wikibooks.org/wiki/Texas Hold'em • Wikizionario contiene la voce di dizionario: http://it.wiktionary.org/wiki/poker • Wikiquote contiene citazioni: http://it.wikiquote.org/wiki/Poker • Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Poker Collegamenti esterni • Poker (http://www.dmoz.org/World/Italiano/Giochi/Carte/Poker) su Open Directory Project ( Segnala (http:// www.dmoz.org/public/suggest?cat=World/Italiano/Giochi/Carte/Poker) su DMoz un collegamento pertinente all'argomento "Poker") • Federazione Italiana Gioco Poker (http://www.figp.it) Roulette La roulette è un gioco d'azzardo di origine italiana (la girella) introdotto in Francia nel XVIII secolo. Consiste in un disco, diviso in 37 (o 38, nella roulette americana) settori numerati da 0 a 36 e colorati alternativamente in rosso e nero, mentre lo zero (0), come il doppio zero (00) quando è presente, è normalmente colorato di verde o in bianco (in pochissimi casi); il disco viene fatto ruotare nella sua sede dal gestore del banco (il croupier) che successivamente vi lancia una pallina, originariamente in avorio, oggi in resina o teflon: la pallina viene fatta ruotare in senso opposto a quello della roulette, e si ferma cadendo in uno dei settori numerati, determinando il numero vincente. La roulette Linguaggio La lingua comunemente usata dai croupiers durante il gioco della roulette è il francese, nel quale vengono pronunciate le frasi che regolano ogni fase del gioco: • • • • Faites vos jeux (apertura del tavolo, dopo il pagamento delle vincite precedenti) Les jeux sont faits (al lancio della pallina) Rien ne va plus (fine delle puntate, quando l'uscita del numero è imminente') l'annuncio del numero uscito, come nel seguente esempio: "27, rouge, impair et passe", seguito dall'indicazione delle puntate vincenti dei giocatori (plein, cheval, ecc.) o da "rien au numéro" se non vi sono vincite. Roulette 153 Tipologie di roulette Vi possono essere tre tipi di tavolo: • roulette francese, il tavolo classico, con i numeri da 0 a 36. È la tipologia più diffusa; si differenzia dalle altre due tipologie perché, nel caso dell'uscita dello 0, le puntate sulle chance semplici vengono imprigionate per la mano in corso se poi esce un numero corrispondente alla chance puntata in precedenza, la puntata viene rimessa in libertà e si comporterà come una nuova puntata che può quindi vincere o perdere (regola dell'en prison). C'è inoltre una deroga convenzionalmente utilizzata in quasi tutti i casinò europei: quando esce lo 0 le puntate sulle chance semplici si possono dividere con il banco. Ad esempio ho puntato 20 pezzi su rosso ed esce zero ritiro dal tavolo 10 pezzi ed il banco incamera la differenza. • roulette inglese, come la roulette francese, ma senza la regola dell'en prison. Il tappeto di gioco è diverso per due motivi: Tavolo della roulette francese nel tavolo francese ci sono tre croupier a far svolgere il gioco mentre in quello inglese e americano uno; ci sono gli annunci (vicini dello zero, serie 5/8 e gli orfanelli) e sul tappeto è rappresentato il cilindro con i tre settori degli annunci; • roulette americana, si differenzia dalle precedenti due per la presenza di una trentottesima casella: il doppio zero (00), anch'essa verde; come nella roulette inglese, non esiste la regola dell'en prison e ci sono quattro tipi di annunci e tutti giocano in pieno: GOLD (5,7,11,17,20,22,26,30,32,34) SILVER (6,8,9,12,18,19,21,28,29,31) SMALL (0,2,4,14,16,23,33,35) (00,1,3,10,13,15,24,25,27,36) AMERICANA Puntate e sistemi di gioco Le combinazioni su cui è possibile puntare sono svariate, ognuna delle quali è quotata 36/n-1:1, essendo n la quantità di numeri compresi nella combinazione scelta: • • • • • Plein, singoli numeri in cui, in caso di vittoria, si vince 35 volte la somma puntata Cheval, cavalli, o coppie di numeri in cui, in caso di vittoria, si vince 17 volte la somma puntata Transversale Pleine, terzine in cui, in caso di vittoria, si vince 11 volte la somma puntata Carrè, quartine in cui, in caso di vittoria, si vince 8 volte la somma puntata Transversale Simple, sestine in cui, in caso di vittoria, si vince 5 volte la somma puntata Roulette 154 • Douzaine, dozzine (prima, seconda o terza) in cui, in caso di vittoria, si vince 2 volte la somma puntata • Colonne, colonne (prima, seconda o terza colonna del tavolo) in cui, in caso di vittoria, si vince 2 volte la somma puntata Puntate Semplici Ci sono poi 3 ulteriori tipologie di puntata, chiamate Chanches Simples, che in caso di vittoria, restituiscono 1 volta la somma puntata e sono: • Pair ou Impair, o anche Even or Odd, ovvero numeri pari o dispari • Manque ou Passe, ovvero i numeri da 1 a 18 o quelli da 19 a 36 Sistemi di gioco • Rouge ou Noir, ovvero i numeri rossi o neri Esistono poi sistemi di gioco codificati a livello internazionale, i più comuni sono: i vicini dello zero, la serie 5/8 e gli orfanelli. • Zero e i vicini dello zero ("zéro et les voisins du zéro") sono una serie di 17 numeri ubicati sul cilindro alla destra e alla sinistra dello zero tra il 22 e il 25 compresi, e si possono giocare con un totale di 9 fiches. I numeri in questione sono 0-2-3, 4-7, 12-15, 18-21, 19-22, 25-26-28-29, 32-35 con due fiches sullo 0-2-3 e sul carrè 25-29. • La serie 5/8 ("tiers du cylindre" o più semplicemente "tiers") è composta da 12 numeri giocabili con 6 fiches su 6 cavalli, i numeri sono 5-8, 10-11, 13-16, 23-24, 27-30, 33-36, e sono ubicati, sul cilindro, in maniera diametralmente opposta ai "vicini dello zero". • Gli orfanelli (o "orphelins"), così chiamati proprio perché non facenti parte di nessuna delle due serie sopra esposte, sono gli 8 numeri rimanenti, ossia 1, 6-9, 14-17, 17-20, 31-34 (l'1 pieno, gli altri a cavallo), si possono giocare con 5 fiches e sono ubicati, in parte sul lato sinistro ed in parte sul lato destro del cilindro, che per consuetudine viene rappresentato con lo "0" in alto. In Scozia si usa giocare la "tier press", che altro non è che la tier normale (5-8-10-11-13-16-23-24-27-30-33-36) con l'aggiunta dei pieni dei primi quattro numeri (ossia 5-8-10-11) per un totale di 10 fiches. Altra celebre e diffusa puntata è quella denominata "nassa". Come gli orfanelli, si effettua puntando 5 fiches, che vanno a coprire 8 numeri vicini dello zero: il 26 e il 19 pieni e i cavalli 0-3, 12-15, 32-35. È considerata la giocata ridotta rispetto al sistema "vicini dello zero" e offre il 21.6% di probabilità di vincita. Statistica La roulette, come tutti i giochi d'azzardo nei quali è presente un banco, garantisce al banco stesso una percentuale matematica di vantaggio sul giocatore, che in questo caso risulta essere del 2,70% circa, una percentuale tutto sommato esigua rispetto a giochi tipo il Lotto od il Totocalcio dove la stessa è addirittura del 60% circa. Non ci sono sistemi di gioco che garantiscano una vincita sicura. Nel 1985 Olivier Doria ipotizzò un sistema basato sull'incrocio di parabole dirette in senso opposto. E cioè piazzando una telecamera che calcolasse, al momento del lancio, la velocità della pallina alla partenza e, simultaneamente la velocità della ruota in senso opposto, si sarebbe potuto calcolare il settore della roulette nel quale la pallina avrebbe avuto più probabilità di atterrare. Se si gioca un numero singolo, le probabilità di vincita calcolate sono del 2,702703% per i tavoli francese e inglese, e del 2,63158% per il tavolo americano; in caso di vincita il banco paga 35 volte la posta giocata. Roulette 155 Voci correlate • Casa da gioco • Gioco d'azzardo • Baratteria (gioco) Altri progetti • Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Roulette 156 Hors Catégorie Continuità assoluta In matematica, il concetto di continuità assoluta si applica a due concetti distinti. Continuità assoluta delle funzioni reali In matematica, una funzione a valori reali di una variabile reale si dice assolutamente continua se per ogni numero positivo piccolo a piacere esiste un numero positivo tale che per ogni sequenza finita o infinita di intervalli disgiunti tali che: allora:[1] Ogni funzione assolutamente continua risulta a variazione limitata e uniformemente continua e, di conseguenza, continua. Ogni funzione lipschitziana è assolutamente continua, mentre non è vero il viceversa. La funzione di Cantor, ad esempio, è continua in tutto il suo dominio, ma non è assolutamente continua. Teorema fondamentale del calcolo integrale di Lebesgue Dato per ipotesi che una funzione sia a variazione limitata, l'assoluta continuità è condizione necessaria e sufficiente alla validità del teorema fondamentale del calcolo integrale. Una funzione derivata definita sull'intervallo compatto a valori in è assolutamente continua se possiede una definita quasi ovunque e integrabile secondo Lebesgue tale che: In modo equivalente, esiste una funzione su integrabile secondo Lebesgue tale che: Tale definizione di assoluta continuità è detta teorema fondamentale del calcolo integrale di Lebesgue. Se le precedenti condizioni equivalenti sono verificate si ha: quasi ovunque. Continuità assoluta 157 Continuità assoluta delle misure Se e sono misure sulla stessa sigma-algebra, la misura per ogni insieme A per il quale si dice assolutamente continua rispetto a se . Questa situazione viene presentata con la scrittura .[2] In modo equivalente, per ogni esiste tale che: per ogni insieme E della sigma-algebra tale che:[3] Proprietà Se esiste un insieme B tale per cui: per ogni insieme E della sigma-algebra, allora tale misura si dice concentrata su B. Misure concentrate su insiemi rispettivamente disgiunti sono dette mutuamente singolari. In particolare, se sono mutuamente singolari si scrive e . Un teorema di particolare importanza nell'ambito della continuità assoluta delle misure afferma che se due misure limitate, allora esiste un'unica coppia di misure positive e sono tali che: La decomposizione: è detta decomposizione di Lebesgue di relativamente a , ed è unica.[4] Il teorema di Radon-Nikodym afferma inoltre che esiste un'unica funzione tale che: per ogni insieme E della sigma-algebra. Il teorema stabilisce, in particolare, che esiste una funzione misurabile valori in , denotata con: tale che per ogni insieme misurabile A si ha: La funzione si dice derivata di Radon-Nikodym di rispetto . a Continuità assoluta Collegamento fra continuità assoluta delle funzioni reali e delle misure Una misura μ sui sottoinsiemi di Borel della retta reale è assolutamente continua rispetto alla misura di Lebesgue se e solo se la funzione è una funzione reale assolutamente continua. Note [1] [2] [3] [4] W. Rudin, op. cit., Pag. 165 W. Rudin, op. cit., Pag. 121 W. Rudin, op. cit., Pag. 125 W. Rudin, op. cit., Pag. 122 Bibliografia • Walter Rudin, Real and Complex Analysis, Mladinska Knjiga, McGraw-Hill, 1970. ISBN 0070542341 Integrale In analisi matematica, l'integrale è un operatore che, nel caso di una funzione di una sola variabile, associa alla funzione l'area sottesa dal suo grafico entro un dato intervallo nel dominio. Si tratta dell'operazione inversa a quella di derivazione. Cenni storici L'idea di base del concetto di integrale era nota ad Archimede di Siracusa, vissuto tra il 287 ed il 212 a.C., ed era contenuta nel metodo da lui usato per il calcolo dell'area del cerchio o del segmento di parabola, detto metodo di esaustione. Nel XVII secolo alcuni matematici trovarono altri metodi per calcolare l'area sottesa al grafico di semplici funzioni, e tra di essi figurano ad esempio Fermat (1636) e Nicolaus Mercator (1668). Nel diciassettesimo e diciottesimo secolo Newton, Leibniz, Johann Bernoulli scoprirono indipendentemente il teorema fondamentale del calcolo integrale, che ricondusse tale problema alla ricerca della primitiva di una funzione. La definizione di integrale per le funzioni continue in tutto un intervallo, introdotta da Pietro Mengoli ed espressa con maggiore rigore da Cauchy, venne posta su base diversa da Riemann in modo da evitare il concetto di limite, e da comprendere classi più estese di funzioni. Nel 1875 Gaston Darboux mostrò che la definizione di Riemann può essere enunciata in maniera del tutto simile a quella di Cauchy, purché si intenda il concetto di limite in modo un po' più generale. Per questo motivo si parla di integrale di Cauchy-Riemann. 158 Integrale 159 Notazione Il simbolo che rappresenta l'integrale nella notazione matematica fu introdotto da Leibniz alla fine del XVII secolo. Il simbolo si basa sul carattere ſ (esse lunga), lettera che Leibniz utilizzava come iniziale della parola summa, in latino somma, poiché questi considerava l'integrale come una somma infinita di addendi infinitesimali. Esistono leggere differenze nella notazione dell'integrale nelle letterature di lingue diverse: il simbolo inglese è piegato verso destra, quello tedesco è dritto mentre la variante russa è piegata verso sinistra. Introduzione euristica Si consideri una funzione reale di variabile reale definita su un intervallo chiuso e limitato dell'asse Quando si procede a calcolare l'integrale di delle ascisse. in un intervallo, Il simbolo di integrale nella letteratura (da sinistra) inglese, tedesca e russa. è detta funzione integranda e l'intervallo è detto intervallo di integrazione. Il valore dell'integrale della funzione calcolato nell'intervallo di integrazione è pari all'area (con segno) della figura che ha per bordi il grafico di , l'asse delle ascisse e i segmenti verticali condotti dagli estremi dell'intervallo di integrazione agli estremi del grafico della funzione. Il numero reale che esprime tale area viene chiamato integrale della funzione esteso all'intervallo di integrazione. Se il grafico della funzione è costituito da uno o più segmenti, la figura si può scomporre in rettangoli o trapezi, di cui si conoscono le aree: la somma algebrica di tali aree è l'integrale cercato. Un tale approccio è utilizzato, ad esempio, nell'integrale di Riemann, in cui il calcolo dell'area può essere eseguito suddividendo la figura in sottili strisce verticali assimilabili a rettangoli: calcolando l'area di ciascun rettangolo e sommando i risultati così ottenuti si può avere un'approssimazione del valore dell'area della figura, e suddividendo in strisce sempre più sottili si ottengono approssimazioni sempre migliori dell'integrale cercato. A partire da una tale descrizione informale, è possibile costruire un modello rigoroso suddividendo un intervallo di integrazione in intervalli del tipo , con immagine è , e . Per ciascun intervallo si considera un punto , e si costruisce il rettangolo che ha per base l'intervallo e per altezza la cui . L'area della figura costituita da tutti i rettangoli così costruiti è data dalla somma di Cauchy-Riemann: Se al diminuire dell'ampiezza degli intervalli piccolo di un numero , la funzione i valori così ottenuti si concentrano in un intorno sempre più è integrabile sull'intervallo ed è il valore del suo integrale. Affinché il valore dell'integrale non dipenda dalla suddivisione degli intervalli utilizzata si pone la condizione che la curva sia uniformemente continua all'interno del singolo intervallo in cui è stato suddiviso l'intervallo di integrazione. Ponendo , se vale la continuità uniforme si possono infatti considerare due punti e interni all'intervallo e le altezze dei rettangoli relativi a pone . Il numero di tali intervalli di ampiezza ed differiscono della quantità come la più grande delle quantità rettangolo conseguente alla scelta del punto della somma di o del punto rettangolini è quindi al massimo pari a: è pari a: . Da ciò discende che, se si , la differenza di valutazione dell'area del generico è al massimo . La differenza di valutazione Integrale 160 Tale discrepanza di valutazione diminuisce al tendere a zero dell'ampiezza del generico intervallo in cui è suddiviso , e questo motiva la scelta di una funzione uniformemente continua. Definizione La prima definizione rigorosa ad essere stata formulata di integrale di una funzione su un intervallo è l'integrale di Riemann, formulato da Bernhard Riemann. L'integrale di Lebesgue è una generalizzazione dell'integrale di Riemann, e per mostrarne la relazione è necessario utilizzare la classe delle funzioni continue a supporto compatto, per le quali l'integrale di Riemann esiste sempre. Siano e due funzioni continue a supporto compatto su . Si può definire la loro distanza nel seguente modo:[1] Munito della funzione distanza, lo spazio delle funzioni continue a supporto compatto è uno spazio metrico. Il completamento di tale spazio metrico è l'insieme delle funzioni integrabili secondo Lebesgue.[2][3] In letteratura esistono diversi altri operatori di integrazione, tuttavia essi godono di minore diffusione rispetto a quelli di Riemann e Lebesgue. Integrale di Riemann Sia l'insieme delle funzioni limitate e continue a tratti sull'intervallo , e tali da essere continue da destra: Si definisca la norma: Sia una partizione di partizione e la funzione indicatrice dell'i-esimo intervallo della . L'insieme delle possibili partizioni dell'intervallo costituisce uno spazio vettoriale normato, con norma data da: L'insieme è denso in . Si definisce la trasformazione lineare limitata nel [4] seguente modo: Si dimostra che un operatore lineare limitato che mappa uno spazio vettoriale normato in uno spazio normato completo può essere sempre esteso in modo unico ad un operatore lineare limitato che mappa il completamento dello spazio di partenza nel medesimo spazio di arrivo. Poiché i numeri reali costituiscono un insieme completo, l'operatore può quindi essere esteso ad un operatore che mappa il completamento di in . Si definisce integrale di Riemann l'operatore , e si indica con:[5] Integrale 161 Integrale di Lebesgue Sia una misura su una sigma-algebra n-spazio euclideo di sottoinsiemi di un insieme . Ad esempio, o un qualche suo sottoinsieme Lebesgue-misurabile, sottoinsiemi Lebesgue-misurabili di e può essere un la sigma-algebra di tutti i la misura di Lebesgue. Nella teoria di Lebesgue gli integrali sono limitati a una classe di funzioni, chiamate funzioni misurabili. Una funzione è misurabile se la controimmagine di ogni insieme aperto del codominio è in , ossia se è un insieme misurabile di .[6] L'insieme delle funzioni misurabili è chiuso rispetto alle per ogni aperto operazioni algebriche, ed in particolare la classe è chiusa rispetto a vari tipi di limiti puntuali di successioni. Una funzione semplice è una combinazione lineare finita di funzioni indicatrici di insiemi misurabili.[7] Siano i numeri reali o complessi i valori assunti dalla funzione semplice e sia: Allora:[7] dove è la funzione indicatrice relativa all'insieme per ogni i. L'integrale di Lebesgue di una funzione semplice è definito nel seguente modo: Sia una funzione misurabile non negativa su sull'insieme rispetto alla misura a valori sulla retta reale estesa. L'integrale di Lebesgue di è definito nel seguente modo:[8] dove l'estremo superiore è valutato considerando tutte le funzioni semplici dell'integrale è un numero nell'intervallo tali che . Il valore . L'insieme delle funzioni tali che: è detto insieme delle funzioni integrabili su funzioni sommabili, ed è denotato con secondo Lebesgue rispetto alla misura , o anche insieme delle . Anche l'integrale di Lebesgue è un funzionale lineare, e considerando una funzione definita su un intervallo teorema di Riesz permette di affermare che per ogni funzionale lineare finita su su il è associata una misura di Borel tale che:[9] In questo modo il valore del funzionale dipende con continuità dalla lunghezza dell'intervallo di integrazione. Integrale 162 Integrale in più variabili Sia: un vettore nel campo reale. Un insieme del tipo: è detto k-cella. Sia definita su Tale funzione è definita su una funzione continua a valori reali, e si definisca: ed è a sua volta continua a causa della continuità di si ottiene una classe di funzioni sull'intervallo continue su . Iterando il procedimento che sono il risultato dell'integrale di rispetto alla variabile . Dopo k volte si ottiene il numero: Si tratta dell'integrale di su rispetto a , e non dipende dall'ordine con il quale vengono eseguite le k integrazioni. In particolare, sia Inoltre, sia . Allora si ha: una funzione a supporto compatto e si ponga che contenga il supporto di . Allora è possibile scrivere: Nell'ambito della teoria dell'integrale di Lebesgue è possibile estendere questa definizione a funzioni di carattere più generale. Una proprietà di notevole importanza dell'integrale di una funzione in più variabili è la seguente. Siano: • una funzione iniettiva di classe jacobiana • sia diversa da 0 ovunque in definita su un aperto e tale che la sua matrice . una funzione a supporto compatto continua definita su e tale che contenga il supporto di . Allora si ha: L'integrando ha un supporto compatto grazie all'invertibilità di per ogni che garantisce la continuità di in , dovuta all'ipotesi per il teorema della funzione inversa. Integrale 163 Continuità e integrabilità Una condizione sufficiente ai fini dell'integrabilità è che una funzione definita su un intervallo chiuso e limitato sia continua. Una funzione continua definita su un compatto, e quindi continua uniformemente per il teorema di Heine-Cantor, è dunque integrabile. Assoluta integrabilità Una funzione integrabile si dice assolutamente integrabile su un intervallo aperto del tipo se su tale intervallo è . Viceversa, non tutte le funzioni integrabili sono assolutamente integrabili: un esempio di funzione di questo tipo è . Il teorema sull'esistenza degli integrali impropri all'infinito garantisce che una funzione sia integrabile su un intervallo del tipo assolutamente integrabile . Proprietà degli integrali Di seguito si riportano le proprietà principali dell'operatore integrale. Linearità dell'integrale Siano f e g due funzioni continue definite in un intervallo [a, b] e siano . Allora: Additività Sia f continua e definita in un intervallo e sia . Allora: Monotonia (o teorema del confronto) Siano f e g due funzioni continue definite in un intervallo e tali che in . Allora: Valore assoluto Tale teorema si potrebbe considerare come un corollario del teorema del Confronto. Sia f integrabile in un intervallo [a, b], allora si ha: Integrale 164 Teorema della media Se è continua allora esiste tale che: Calcolo differenziale e calcolo integrale Il teorema fondamentale del calcolo integrale, grazie agli studi ed alle intuizioni di Leibniz, Newton, Torricelli e Barrow, stabilisce la relazione esistente tra calcolo differenziale e calcolo integrale. Funzione Integrale Sia una funzione definita su un intervallo chiuso e limitato , dove di contenuto in , al variare dell'intervallo è fissato e l'altro estremo . Tale funzione si dice funzione integrale di La variabile di integrazione . Se la funzione è integrabile su ogni intervallo varia il valore dell'integrale. Si ponga è variabile: l'integrale di su diventa allora una funzione o integrale di Torricelli, e si indica con: è detta variabile muta, e varia tra e . Teorema fondamentale del calcolo integrale La prima parte del teorema è detta primo teorema fondamentale del calcolo, e garantisce l'esistenza della primitiva per funzioni continue. La seconda parte del teorema è detta secondo teorema fondamentale del calcolo, e consente di calcolare l'integrale definito di una funzione attraverso una delle sue primitive. Sia una funzione integrabile. Si definisce la funzione La prima parte del teorema afferma che allora è differenziabile in dove è una funzione continua in nel seguente modo: . Se inoltre è una funzione continua è continua in un punto allora è differenziabile in tal e si ha: è la derivata di . Più precisamente, se punto, e vale la precedente relazione. La seconda parte del teorema non assume la continuità di primitiva su . Se è integrabile si ha: e tale relazione è detta formula fondamentale del calcolo integrale. , una funzione che ammette una Integrale 165 Infinite Primitive Nel caso in cui si ha: allora, poiché la derivata di una funzione costante è nulla: dove è una qualunque costante in ammette primitiva primitive di Infatti, siano denota l'operazione di derivazione. Quindi, se una funzione allora esiste un'intera classe di primitive del tipo sono della forma . e due primitive di derivata prima di Quindi e . Viceversa, tutte le e si consideri la funzione . La è data da: si mantiene costante su tutto l'intervallo , e ciò implica che: La condizione sufficiente per l'esistenza di una primitiva è data dal fatto che se è continua in , allora ammette una (e dunque infinite) primitive per il primo teorema fondamentale del calcolo integrale. Integrale improprio Un integrale improprio è un limite della forma: oppure: Un integrale è improprio anche nel caso in cui la funzione integranda non è definita in uno o più punti interni del dominio di integrazione. Integrale indefinito Il problema inverso a quello della derivazione consiste nella ricerca di tutte le funzioni la cui derivata sia uguale a una funzione assegnata. Questo problema è noto come ricerca delle primitive di una funzione. La totalità delle primitive di una funzione denota l'integrale indefinito della funzione si chiama integrale indefinito di tale funzione. Il simbolo: in . La funzione è detta anche in questo caso funzione integranda. Ogni funzione continua in un intervallo ammette sempre integrale indefinito, ma non è detto che sia derivabile in ogni suo punto. Se è una funzione definita in un intervallo nel quale ammette una primitiva allora l'integrale indefinito di dove è: è una generica costante reale. Integrale 166 Metodi di integrazione Il caso più semplice che può capitare è quando si riconosce la funzione integranda essere la derivata di una funzione nota . In casi più complessi esistono numerosi metodi per trovare la funzione primitiva. In particolare, tra le tecniche più diffuse per la semplificazione della funzione integranda vi sono le seguenti due: • Se l'integranda è il prodotto di due funzioni, l'integrazione per parti riduce l'integrale alla somma di due integrali, di cui uno calcolabile immediatamente grazie alla formula fondamentale del calcolo integrale. • Se l'integranda è trasformazione di una derivata nota attraverso una qualche funzione derivabile, l'integrazione per sostituzione riporta il calcolo all'integrale di quella derivata nota, modificato per un fattore di proporzionalità che dipende dalla trasformazione in gioco. Stima di somme tramite integrale Un metodo che consente di ottenere la stima asintotica di una somma è l'approssimazione di una serie tramite il suo integrale. Sia una funzione monotona non decrescente. Allora per ogni e ogni intero si ha: Infatti, se la proprietà è banale, mentre se si osserva che la funzione è integrabile in ogni intervallo chiuso e limitato di , e che per ogni vale la relazione: Sommando per si ottiene dalla prima disuguaglianza: mentre dalla seconda segue che: Aggiungendo ora e alle due somme precedenti si verifica la relazione. Integrali di Denjoy, Perron, Henstock e altri Sono state sviluppate altre definizioni di integrale, per diversi scopi. I tre qui nominati condividono la validità del teorema fondamentale del calcolo integrale in una forma più generale di Riemann e Lebesgue. Il primo in ordine cronologico ad essere definito è stato l'integrale di Denjoy, definito per mezzo di una classe di funzioni che generalizza le funzioni assolutamente continue. Successivamente, solo due anni dopo, Perron ha dato la sua definizione, con un metodo che ricorda le funzioni maggioranti e minoranti di Darboux. In ultimo, Ralph Henstock (e indipendentemente, Jaroslaw Kurzweil) ha dato una terza definizione equivalente, detta anche integrale di gauge, che sfrutta una leggera generalizzazione della definizione di Riemann, la cui semplicità rispetto alle altre due è probabilmente il motivo per cui questo integrale è più noto con il nome del matematico inglese che con quelli di Denjoy e Perron. Integrale 167 Integrale di Ito L'integrale di Ito fa parte dell'analisi di Itō per i processi stocastici. In letteratura è introdotto utilizzando varie notazioni: una di queste è sicuramente: dove è il processo di Wiener. L'integrale non è definito come un integrale ordinario, in quanto, il processo di Wiener ha variazione totale infinita, in particolare gli strumenti canonici di integrazione di funzioni continue non sono sufficienti. Pertanto si cerca in questa pubblicazione di definire formalmente l'integrale di Itô (o integrale stocastico). L'utilizzo principale di tale strumento matematico è nel calcolo differenziale di equazioni in cui sono coinvolti, appunto, integrali stocastici, che inseriti in equazioni volte a modellizzare un particolare fenomeno (moto aleatorio delle particelle, prezzo delle azioni nei mercati finanziari ecc.) rappresentano il contributo aleatorio sommabile (rumore) dell'evoluzione del fenomeno stesso. Esempi di calcolo di un integrale • In base alle informazioni fornite dal primo teorema fondamentale del calcolo integrale possiamo effettuare il calcolo di un integrale cercando una funzione la cui derivata coincide con la funzione da integrare. A questo scopo possono essere d'aiuto le tavole d'integrazione. Così per effettuare il calcolo dell'integrale della funzione vista in precedenza attraverso la ricerca di una primitiva si ricorre alla formula la cui derivata coincide proprio con . Prendendo in considerazione la (già esaminata precedentemente) funzione Mentre per quanto concerne l'integrale definito nel compatto ed integrandola si ottiene si ha, in forza del secondo teorema fondamentale del calcolo integrale esattamente (ovviamente) lo stesso risultato ottenuto in precedenza. • Supponiamo di fissare un sistema di riferimento cartesiano attraverso le rette ortogonali ed orientate delle ascisse e delle ordinate. Supponiamo ora che su tale sistema di assi sia definita una retta la cui equazione esplicita è . Si vuole calcolare l'integrale di tale retta definita sul compatto situato sull'asse delle ascisse. Supponiamo per semplicità che i punti a e b si trovino sul semiasse positivo delle ascisse e siano entrambi positivi. Allora l'area sottesa alla retta considerata nel compatto è pari all'area di un trapezio che "poggiato" in orizzontale sull'asse delle ascisse è caratterizzato da un'altezza pari a , base maggiore . L'area di tale figura è data, come noto dalla geometria elementare, dalla formula ovvero e base minore , . Nell'ottica del calcolo dell'integrale di questa retta definita nel compatto intervallo, dividendolo in n parti uguali effettuiamo una partizione di tale Integrale 168 Nel generico intervallo scegliamo come punto arbitrario il punto più esterno qualsiasi punto dell'intervallo), considerando la funzione nel generico punto (ma andrebbe bene interno all'intervallo . Si avrà quindi , e la somma integrale di Riemann diventa nella quale la progressione aritmetica restituisce un'espressione delle somme di Riemann pari a Per passare dalle somme integrali di Riemann all'integrale vero e proprio è ora necessario, in conformità con la definizione di integrale, il passaggio al limite di suddette somme. Ovvero: Calcolando il limite per , dato che , s'ottiene dalla quale, eseguendo la somma si ricava la quale è esattamente l'area del trapezio costruito dalla retta sul piano insieme all'asse delle ascisse. Note [1] [2] [3] [4] [5] [6] [7] [8] [9] W. Rudin, op. cit., Pag. 68 Si pone in tale contesto che due funzioni uguali quasi ovunque siano coincidenti. W. Rudin, op. cit., Pag. 69 Reed, Simon, op. cit., Pag. 10 Reed, Simon, op. cit., Pag. 11 W. Rudin, op. cit., Pag. 8 W. Rudin, op. cit., Pag. 15 W. Rudin, op. cit., Pag. 19 W. Rudin, op. cit., Pag. 34 Bibliografia • (EN) Walter Rudin, Real and Complex Analysis, Mladinska Knjiga, McGraw-Hill, 1970. ISBN 0070542341 • Michael Reed; Barry Simon, Methods of Modern Mathematical Physics, Vol. 1: Functional Analysis, 2a ed., San Diego, California, Academic press inc., 1980. ISBN 0125850506 • Gustavo Bessiére Il calcolo differenziale ed integrale, reso facile ed attraente (Editore Ulrico Hoepli Milano) ISBN 88-203-1011-2 Integrale Voci correlate • • • • • • • • Derivata Funzione sommabile Integrale di Riemann Integrale di Lebesgue Integrale sui cammini Metodi di integrazione Passaggio al limite sotto segno di integrale Primitiva (matematica) Tavole di integrali • Integrali più comuni • Integrali definiti Integrali indefiniti • di funzioni razionali • • • • • • • di funzioni irrazionali di funzioni trigonometriche di funzioni iperboliche di funzioni esponenziali di funzioni logaritmiche di funzioni d'arco di funzioni d'area Altre tipologie di integrali • Integrale multiplo • Integrale doppio • Integrale triplo • Integrale di linea • Integrale di superficie • Integrale funzionale Collegamenti esterni • The Integrator - Calcolo formale di primitive (http://integrals.wolfram.com/index.jsp) (Wolfram Research) • Interactive Multipurpose Server (http://wims.unice.fr/wims/en_home.html) (WIMS) • Marshall Evans Munroe, Misura e integrazione (http://www.treccani.it/enciclopedia/ misura-e-integrazione_(Enciclopedia-Novecento)/), da Enciclopedia del Novecento, Istituto dell'Enciclopedia italiana Treccani • Integrale (http://www.treccani.it/enciclopedia/integrale/), Enciclopedia on line Treccani 169 Convoluzione 170 Convoluzione In matematica, in particolare nell'analisi funzionale, la convoluzione è un'operazione tra due funzioni che genera una terza funzione che viene vista come la versione modificata di una delle due funzioni di partenza. È paragonabile alla correlazione incrociata. Viene utilizzata in vari campi della fisica, della statistica, dell'elettronica, dell'analisi d'immagini e della grafica computerizzata, soprattutto per operazioni di filtraggio nei sistemi lineari tempo invarianti (in questo caso l'OUT è dato dalla convoluzione tra il segnale IN e la risposta all'impulso del sistema, la cui trasformata di Laplace o la trasformata di Fourier è detta funzione di trasferimento e funzione di risposta in frequenza rispettivamente). Definizione Intuitiva La convoluzione temporale di due funzioni è la somma, ripetuta quanto si voglia nel tempo, cioè in istanti diversi, dei prodotti: del valore della funzione qualsiasi nel momento qualsiasi, per il valore di una seconda funzione qualsiasi in un momento precedente o successivo al momento qualsiasi, per la misura dell'intervallo temporale che passa dal momento qualsiasi al momento precedente o successivo al momento qualsiasi. Definizione Si considerino due funzioni secondo Lebesgue su ogni compatto di , dove è a supporto compatto e . Si definisce convoluzione di e è integrabile la funzione definita nel seguente [1] modo: dove denota l'integrale definito su tutto l'insieme dei numeri reali, risultano ora chiare le limitazioni poste alle funzioni e , in quanto se così non fosse non potremmo assicurare che l'integrale sia un numero reale. È cioè l'integrale del prodotto delle due funzioni dopo che una delle funzioni di partenza è stata rovesciata e traslata, e si può considerare una forma di trasformata integrale. L'ultimo passaggio si può dimostrare con semplici calcoli: si consideri nella prima formula si ottiene la seconda ritornando a chiamare con il nome di Per funzioni discrete, si può usare la versione discreta della convoluzione: Proprietà La convoluzione soddisfa le seguenti proprietà: • Commutatività • Associatività • Distributività • Associatività per moltiplicazione per scalare , operando la sostituzione . Convoluzione 171 per ogni numero reale (o complesso) . • Regola di differenziazione dove con si è denotata la derivata di o, nel caso discreto, l'operatore differenziale . Teorema di convoluzione Il teorema di convoluzione afferma che dove F(f) indica la trasformata di Fourier di f. Altre versioni di questo teorema funzionano per la trasformata di Laplace, trasformata di Laplace bilatera e la trasformata di Mellin. La trasformata della convoluzione di due funzioni equivale al prodotto delle trasformate delle due funzioni stesse. Estensione La convoluzione di f e g si scrive ed è definita come l'integrale del prodotto delle due funzioni dopo che una delle due sia stata simmetrizzata rispetto all'asse delle ordinate e sia stata traslata. In questo modo, la convoluzione è un metodo particolare di trasformata integrale: L'intervallo di integrazione dipende dal dominio su cui sono definite le funzioni. Nel caso di integrazione su un intervallo finito, f e g sono spesso considerate periodiche in entrambe le direzioni, in modo tale che il termine g(t − τ) non implichi una violazione dell'intervallo. L'uso dei domini periodici è spesso chiamato convoluzione circolare; naturalmente, è sempre possibile l'estensione con aggiunta di zeri: utilizzando l'estensione con gli zeri o domini infiniti, la convoluzione è detta lineare, specialmente nel caso discreto sotto descritto. Se e sono due variabili casuali indipendenti con densità di probabilità f e g rispettivamente, allora la densità di probabilità della somma è data dalla covoluzione f g[2]. Per le funzioni discrete, si può utilizzare la versione discreta della convoluzione, data da Moltiplicando due polinomi, i coefficienti del prodotto sono dati dalla convoluzione della sequenza originale dei coefficienti in questo senso (utilizzando l'estensione con zeri come ricordato sopra). Generalizzando i casi sopra citati, la convoluzione può essere definita per ogni coppia di funzioni integrabili definite su un intervallo localmente compatto. Una generalizzazione diversa avviene per la convoluzione delle distribuzioni. Convoluzione Convoluzione su gruppi Se G è un gruppo scelto in modo appropriato e la cui misura corrisponde al valore m (per esempio, uno gruppo di Hausdorff localmente compatto con la misura di Haar e se f e g sono valori reali o complessi dell' m-integrale di G, allora la loro convoluzione può essere definita da: Applicazioni La convoluzione e le relative operazioni sono usate in diverse applicazioni dell'ingegneria e della matematica. • In statistica, una media mobile pesata è una convoluzione. • Anche la distribuzione di probabilità della somma di due variabili casuali indipendenti corrisponde alla convoluzione di ognuna delle loro distribuzioni. • In ottica, molte specie di "blur" sono descritte tramite la convoluzione. Un'ombra (ad esempio l'ombra su un tavolo che si vede quando gli si interpone un oggetto innanzi la fonte luminosa) è la convoluzione della forma della fonte di luce che sta proiettando l'ombra dell'oggetto illuminato e l'oggetto stesso. Una foto fuori fuoco è la convoluzione dell'immagine a fuoco con la forma del diaframma. Il termine fotografico per tale effetto è bokeh. • Analogamente, nell'elaborazione digitale delle immagini, i filtri convoluzionali assumono un importante compito negli algoritmi di calcolo dei margini e dei processi correlati. • Nell'elaborazione digitale dei segnali, il filtraggio di frequenza può essere semplificato convolvendo due funzioni (dati con un filtro) nel dominio del tempo, il che equivale a moltiplicare i dati con un filtro nel dominio di frequenza. • In acustica lineare, un'eco è la convoluzione del suono originale con una funzione geometrica che descrive i vari oggetti che stanno riflettendo il segnale sonoro. • Nella riverberazione artificiale (elaborazione digitale dei segnali (DSP), audio professionale), la convoluzione è utilizzata per codificare la risposta ad impulso di una stanza reale ad un segnale audio digitale. • In ingegneria elettrica e in altre discipline, l'output (risposta) di un sistema lineare (stazionario, o tempo- o spazio-invariante) è la convoluzione di un input (eccitazione d'ingresso) con la risposta impulsiva del sistema (ovvero la risposta quando l'eccitazione d'ingresso è la funzione Delta di Dirac). Vedi teoria dei sistemi lineari tempo-invarianti e elaborazione digitale dei segnali. • Nella spettroscopia a fluorescenza determinata a tempo, il segnale di eccitazione può essere trattato come una catena di impulsi delta, e la fluorescenza misurata è data dalla somma dei decadimenti esponenziali di ogni impulso delta. • In fisica, ogni volta che è presente un sistema lineare con un "principio di sovrapposizione", è utilizzata l'operazione di convoluzione. • Questo è il termine fondamentale del problema nelle equazioni di Navier-Stokes correlate al problema matematico del millennio di Clay e al premio associato di un milione di dollari. 172 Convoluzione Note [1] W. Rudin, op. cit., Pag. 170 [2] J. Jacod;P. Protter, op. cit., Pag. 117 Bibliografia • Walter Rudin, Real and Complex Analysis, Mladinska Knjiga, McGraw-Hill, 1970. ISBN 0070542341 • (EN) Jean Jacod; Philip Protter, Probability Essentials, Springer, 2000. ISBN 3540438718 Collegamenti esterni • Convolution (http://rkb.home.cern.ch/rkb/AN16pp/node38.html#SECTION000380000000000000000), su The Data Analysis BriefBook (http://rkb.home.cern.ch/rkb/titleA.html) • http://www.jhu.edu/~signals/convolve/index.html Applet Java sulla convoluzione. • http://www.jhu.edu/~signals/discreteconv2/index.html Applet Java per la convoluzione di funzioni tempo discrete. • http://www3.deis.unibo.it/Staff/Research/CCaini/corsoCEA/convoluzione.xls Un foglio elettronico per visualizzare in modo interattivo il prodotto di convoluzione fra due segnali, nell’esempio un impulso ed un’esponenziale monolatera. Tramite un cursore il tempo può essere fatto variare da -∞ a +∞; in corrispondenza di ogni valore viene evidenziata la funzione integrando ed il risultato del prodotto di convoluzione (tramite un marker) Voci correlate • Deconvoluzione • Convoluzione di Dirichlet • Mollificatore Altri progetti • Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/ Category:Convolution 173 Sigma-algebra 174 Sigma-algebra In matematica, una σ-algebra (pronunciata sigma-algebra) o tribù (termine introdotto dal francese Bourbaki) su di un insieme , è una famiglia di sottoinsiemi di che ha delle proprietà di stabilità rispetto ad alcune operazioni insiemistiche, in particolare l'operazione di unione numerabile e di passaggio al complementare. La struttura di σ-algebra è particolarmente utile nelle teorie della misura e probabilità ed è alla base di tutte le nozioni di misurabilità, sia di insiemi che di funzioni. Essa è un caso particolare di algebra di insiemi e, rispetto a quest'ultima, è utilizzata molto più ampiamente in Analisi (per via delle numerose proprietà che le misure definite su σ-algebre hanno rispetto alle operazioni di passaggio al limite). Le σ-algebre che ricorrono più spesso in matematica sono le σ-algebre boreliane e la σ-algebra di Lebesgue. Anche storicamente queste due classi di σ-algebre hanno motivato lo sviluppo del concetto stesso di σ-algebra, nato a cavallo di XIX secolo e XX secolo col fine di formalizzare la teoria della misura[1]. Esso, infatti, precisa l'idea euristica di evento o insieme misurabile. Molte importanti strutture astratte, al centro dei progressi della matematica dell'ultimo secolo, sono definibili mediante σ-algebre [2]. Definizione e prime proprietà Dato un insieme , si definisce σ-algebra su una famiglia • L'insieme appartiene a . • Se un insieme è in , allora il suo complementare è in • Se gli elementi appartiene a Se tale che:[3] di sottoinsiemi di . di una famiglia numerabile di insiemi sono in , allora la loro unione: . è una σ-algebra su , allora si dice spazio misurabile e gli elementi di sono detti insiemi misurabili in [3] . Una σ-algebra, in particolare, è un'algebra di insiemi, poiché la terza condizione sopraindicata implica la stabilità per unione finita richiesta nella definizione di struttura di algebra. In tal caso si richiede la stabilità anche per unioni numerabili, da cui l'identificativo σ, un'abbreviazione per successione. Dalla definizione segue che:[4] • L'insieme vuoto appartiene a , essendo il complementare di . • Una σ-algebra è stabile per intersezione numerabile. Infatti, se • Se gli insiemi Date due σ-algebre e appartengono a , , si dice che appartenente ad è meno fine di appartiene anche a e , dove e costituita da sottoinsiemi del prodotto cartesiano . se è contenuta in , . La relazione essere meno fine di definisce un ordinamento parziale sull'insieme delle σ-algebre su di un dato insieme Dati due insiemi , allora: , allora: su di uno stesso insieme ovvero se ogni sottoinsieme per ogni . sono le rispettive sigma-algebre, la sigma-algebra è , ed è la più piccola sigma-algebra che contiene Sigma-algebra 175 Strutture definite utilizzando σ-algebre La nozione di σ-algebra fornisce la possibilità di costruire strutture matematiche più complesse a partire da essa. Le seguenti strutture fondamentali, largamente studiate durante il XX secolo, stanno alla base della teoria della misura e dell'integrale di Lebesgue. Spazio misurabile Uno spazio misurabile è una coppia elementi di costituita da un insieme non vuoto [3] sono detti insiemi misurabili di le funzioni misurabili. L'insieme . ed una σ-algebra su . Gli Gli spazi misurabili formano una categoria, i cui morfismi sono è chiamato a volte spazio campionario, soprattutto nelle applicazioni inerenti alla statistica e la probabilità. Spazio di misura Si definisce spazio di misura uno spazio misurabile costituita da sottoinsiemi misurabili di Se . [5] dotato di una misura Un tale spazio si rappresenta con una terna lo spazio di misura si dice finito. Se inoltre di misura finita, cioè tali che positiva definita sulla σ-algebra . può scriversi come unione numerabile di insiemi: , allora lo spazio misurabile si dice σ-finito. Funzioni misurabili Sia uno spazio misurabile e misurabile o uno spazio topologico. Un'applicazione -misurabile se la controimmagine di ogni elemento di insieme misurabile di per ogni aperto V di : è in viene detta , ossia se è un [3] Utilizzando il linguaggio della teoria delle categorie si può definire una funzione misurabile come un morfismo di spazi misurabili. Sistema dinamico Sia uno spazio misurabile, un semigruppo e, per ogni misurabile con la proprietà che . In altri termini, , sia un'applicazione è un'azione misurabile di su . La terna è detta sistema dinamico. Principali risultati Data una famiglia qualunque di σ-algebre, si verifica che la loro intersezione: è ancora una σ-algebra. Essa è la più grande σ-algebra contenuta in tutte le algebre , allora , ossia se per ogni . Pertanto, data una famiglia qualsiasi di sottoinsiemi di l'intersezione di tutte le σ-algebre contenenti , si può considerare la σ-algebra generata da come . Dunque, dalla definizione stessa di σ-algebra generata da segue che essa è la più piccola σ-algebra contenente . Questa osservazione è molto utilizzata per la costruzione di misure, in quanto consente di definire una σ-algebra semplicemente fornendo una famiglia di insiemi che la generano. La σ-algebra generata da un insieme è spesso denotata . Nel caso di famiglie finite , tale σ-algebra si può enumerare esplicitamente ponendo: Sigma-algebra 176 e chiudendo la famiglia rispetto alle operazioni di unione e complementare. Un π-sistema è una famiglia non vuota di sottoinsiemi di . Analogamente, una famiglia stabile per intersezione: se di sottoinsiemi di • • . è chiusa per passaggio al complementare, ovvero se • è stabile per unioni numerabili disgiunte: se gli insiemi allora è detta un λ-sistema se: allora per . sono a due a due disgiunti, allora: . In tale contesto, è possibile dimostrare in maniera elementare il teorema π-λ di Dynkin, che afferma che su un qualunque insieme non vuoto, se un π-sistema è contenuto in un λ-sistema , allora l'intera σ-algebra generata da è contenuta in . Ossia . Tale teorema è molto spesso utilizzato in teoria della misura [6]. Ad esempio, ne segue che è sufficiente assegnare i valori di una misura su di un λ-sistema contenente un π-sistema per costruire lo spazio di misura . Infatti, proprio per il teorema π-λ di Dynkin, la misura è ben definita su tutto . Esempi ed applicazioni • Dato un qualunque insieme non vuoto famiglia , la famiglia di sottoinsiemi costituita da tutti i sottoinsiemi di è una σ-algebra. Anche la (insieme delle parti) è una σ-algebra. Queste sono rispettivamente la più piccola e la più grande σ-algebra su ; ossia se è una σ-algebra su , allora . In genere, queste due σ-algebre sono dette improprie o banali. • Ogni algebra di insiemi composta da un numero finito di elementi è una σ-algebra, in quanto non ci sono famiglie di insiemi con un numero infinito di elementi (si vedano gli esempi alla voce algebra di insiemi). • Dato un qualunque insieme non vuoto , la famiglia composta da tutti i sottoinsiemi di che hanno cardinalità numerabile o il cui complementare abbia cardinalità numerabile è una σ-algebra. Essa è distinta dall'insieme delle parti di se e solo se è non numerabile. • Consideriamo l'insieme dei numeri reali (o, più in generale, la famiglia dei sottoinsiemi aperti di genere denotata con ) con la usuale topologia euclidea (ossia ). Si definisce σ-algebra boreliana la σ-algebra generata da . Gli elementi di è , in sono detti boreliani, e si può dimostrare che essi hanno la cardinalità del continuo (dunque, i sottoinsiemi boreliani sono pochi rispetto a tutti i sottoinsiemi della retta reale che hanno un cardinalità superiore a quella dei reali stessi). Sulla σ-algebra boreliana si possono definire molte delle misure (sull'asse reale) comunemente utilizzate. È anche interessante notare che la nozione di σ-algebra è nata storicamente proprio dalla generalizzazione di questa costruzione. • Più in generale, la costruzione di σ-algebra boreliana si può effettuare su qualunque spazio topologico semplicemente ponendo . Questa σ-algebra è utilizzata per costruire misure in spazi più generali della retta reale. Ad esempio, la misura di Haar su gruppi topologici localmente compatti è definita proprio mediante la σ-algebra boreliana del gruppo. Analogamente, la nozione di dualità tra funzioni continue e misure su di uno spazio topologico si costruisce (in spazi sufficientemente regolari) proprio equipaggiando lo spazio con la sua σ-algebra boreliana. • Nel caso in cui , è talvolta utilizzata una σ-algebra molto più ampia di quella boreliana: la σ-algebra di Lebesgue. Essa è definita come il completamento della σ-algebra boreliana rispetto alla misura di Borel, ed è fondamentale per la costruzione della celebre misura di Lebesgue. La σ-algebra di Lebesgue ha cardinalità Sigma-algebra superiore a quella del continuo: naturalmente essa è contenuta nell'insieme delle parti dei numeri reali (si veda il primo esempio sopra). È tuttavia lecito chiedersi se vi siano sottoinsiemi dei numeri reali che non appartangono alla σ-algebra di Lebesgue (tali sottoinsiemi sono anche detti insiemi non misurabili secondo Lebesgue). Ebbene, l'esistenza di tali sottoinsiemi è legata all'assioma della scelta, ovvero essi si possono costruire se e solo se si assume tale assioma. Note [1] Un breve resoconto dello sviluppo storico della teoria della misura e dell'integrazione si trova in Boyer History of Mathematics, cap. 28. [2] Per un'introduzione alle idee della teoria della misura (come appunto quella di σ-algebra), ed alle loro applicazioni si veda Billingsley Probability and measure. Una presentazione generale, ma più astratta, è data anche in Cohn, Measure Theory. Un classico testo introduttivo è Halmos Measure Theory. [3] W. Rudin, op. cit., Pag. 8 [4] W. Rudin, op. cit., Pag. 10 [5] W. Rudin, op. cit., Pag. 16 [6] Alcune esempi sono dati in Vestrup, The Theory of Measures and Integration cap. 3 e cap. 11 Bibliografia • Walter Rudin, Real and Complex Analysis, Mladinska Knjiga, McGraw-Hill, 1970. ISBN 0070542341 • Patrick Billingsley, Probability and measure, 3rd edition, New York, John Wiley & Sons, 1995. ISBN 0-471-00710-2. • Carl B. Boyer, History of Mathematics, 2nd edition, New York, John Wiley & Sons, 1989. ISBN 0-471-54397-7 • Donald L. Cohn, Measure Theory, Boston, Birkhäuser, 1980. ISBN 0-8493-7157-0 • Paul R. Halmos, Measure Theory, New York, Springer-Verlag, 1974. ISBN 0-387-90088-8 • Eric M. Verstrup, The Theory of Measures and Integration, Hoboken, John Wiley & Sons, 2003. ISBN 0-471-24977-7 Voci correlate • • • • • • • • • • Algebra di insiemi Algebra di Borel Algebra di Baire Delta algebra Funzione misurabile Insieme misurabile Spazio di probabilità Spazio misurabile Spazio di misura Spazio campionario 177 Algoritmo di Metropolis-Hastings 178 Algoritmo di Metropolis-Hastings L'algoritmo di Metropolis-Hastings serve a generare dei numeri x1, x2, .., xn che presentano una distribuzione p(x) fissata a priori. Il metodo si basa sulla generazione di numeri di 'test' che vengono accettati o rigettati in modo da ottenere la distribuzione voluta. Il metodo sarà presentato nel caso di una sola variabile casuale continua; esso può essere facilmente esteso al caso di distribuzioni di probabilità P(x1, x2, ..., xN) di un numero qualsiasi di variabili. L'algoritmo di Metropolis è realizzabile utilizzando un generatore di numeri casuali con distribuzione uniforme in [0, 1]. La procedura è la seguente: 1. Preso, per convenzione, l'ultimo valore xi della variabile random nella sequenza si sceglie un valore di prova x* diverso da xi tra tutti i valori possibili della variabile random. Nel caso delle variabili random continue si può prendere x* = xi +δx dove δx è un numero distribuito uniformemente nell'intervallo [−δ, δ]; 2. Si calcola il rapporto w = ; 3. Se w ≥ 1 si accetta il nuovo valore x* = xi+1 4. Se invece w < 1 il nuovo valore deve essere accettato con probabilità w. Si genera quindi un numero random r distribuito uniformemente nell'intervallo [0, 1); 5. Se r ≤ w si accetta il nuovo valore x* = xi+1 ; 6. Se invece r > w il nuovo valore viene rigettato dal momento che xi+1 = xi. Per generare una sequenza di N elementi basta ripetere queste operazioni N volte a partire da un valore iniziale x0. Per avere una buona stima della p(x) è necessario generare sequenze molto lunghe. La scelta del valore di δ può essere cruciale, se è troppo grande solo una piccola parte dei valori di prova proposti verrà accettato. Se invece il valore di δ è troppo piccolo quasi tutti i valori di prova proposti saranno accettati. Di conseguenza, essendo δ dipendente dalla forma di p(x), deve essere di volta in volta scelto; per la sua stima si può procedere per approssimazione successiva in modo che, fissato un delta, il numero di valori accettati sia un terzo del totale. Anche la scelta del valore iniziale è molto importante, in genere conviene partire da valori di x tali che p(x) assuma valori massimi in modo da avere una buona statistica nelle zone più probabili. Voci correlate • Processo markoviano • Nicholas Constantine Metropolis Bibliografia W.K Hastings, Monte Carlo sampling methods using Markov chains and their applications, Biometrikam, 1970; 57: 97-109 Metodo Monte Carlo Metodo Monte Carlo Il Metodo Monte Carlo fa parte della famiglia dei metodi statistici non parametrici. È utile per superare i problemi computazionali legati ai test esatti (ad esempio i metodi basati sulla distribuzione binomiale e calcolo combinatorio, che per grandi campioni generano un numero di permutazioni eccessivo). Il metodo è usato per trarre stime attraverso simulazioni. Si basa su un algoritmo che genera una serie di numeri tra loro incorrelati, che seguono la distribuzione di probabilità che si suppone abbia il fenomeno da indagare. L'incorrelazione tra i numeri è assicurata da un test chi quadrato. La simulazione Monte Carlo calcola una serie di realizzazioni possibili del fenomeno in esame, con il peso proprio della probabilità di tale evenienza, visualizzazione scientifica di una simulazione estremamente grande cercando di esplorare in modo denso tutto lo spazio dei di un problema di Instabilità di Rayleigh-Taylor - Lawrence parametri del fenomeno. Una volta calcolato questo Livermore National Laboratory campione casuale, la simulazione esegue delle 'misure' delle grandezze di interesse su tale campione. La simulazione Monte Carlo è ben eseguita se il valore medio di queste misure sulle realizzazioni del sistema converge al valore vero. Le sue origini risalgono alla metà degli anni 40 nell'ambito del Progetto Manhattan. I formalizzatori del metodo sono Enrico Fermi, John von Neumann e Stanisław Marcin Ulam[1], il nome Monte Carlo fu inventato in seguito da Nicholas Constantine Metropolis in riferimento alla nota tradizione nei giochi d'azzardo del mini stato omonimo nel sud della Francia, l'uso di tecniche basate sulla selezione di numeri casuali è citato già in un lavoro di Lord Kelvin del 1901 ed in alcuni studi di William Sealy Gosset[1]. L'algoritmo Monte Carlo è un metodo numerico che viene utilizzato per trovare le soluzioni di problemi matematici, che possono avere molte variabili e che non possono essere risolti facilmente, per esempio il calcolo integrale. L'efficienza di questo metodo aumenta rispetto agli altri metodi quando la dimensione del problema cresce. Un primo esempio di utilizzo del metodo Monte Carlo è rappresentato dall'esperimento dell'ago di Buffon e forse il più famoso utilizzo di tale metodo è quello di Enrico Fermi, quando nel 1930 usò un metodo casuale per problemi di trasporto neutronico[1]. 179 Metodo Monte Carlo 180 Descrizione generale Un altro esempio particolare dell'utilizzo del Metodo Monte Carlo è l'impiego del metodo nell'analisi scacchistica. Negli ultimi anni i più forti programmi scacchistici in commercio, implementano delle opzioni d'analisi che utilizzano "Monte Carlo analisi". Per valutare una posizione, si fanno giocare al computer migliaia di partite partendo dalla posizione da analizzare, facendo eseguire al PC delle mosse "random" (una scelta casuale tra le mosse più logiche). La media dei risultati ottenuti in queste partite è un'indicazione plausibile della mossa migliore. (Fonte: Chessbase [2]). Non c'è un solo metodo Monte Carlo; il termine descrive invece una classe di approcci molto utilizzati per una larga categoria di problemi. Tuttavia, questi approcci tendono a seguire un particolare schema: 1. Definire un dominio di possibili dati in input. 2. Generare input casuali dal dominio con una certa distribuzione di probabilità determinate. 3. Eseguire un calcolo deterministico utilizzando i dati in ingresso (input). 4. Aggregare i risultati dei calcoli singoli nel risultato finale. Integrazione Il metodo Monte Carlo può essere illustrato come una Battaglia navale. Prima un giocatore fa alcuni colpi a caso. Successivamente il giocatore applica alcuni algoritmi (es. la corazzata è di quattro punti nella direzione verticale o orizzontale). Infine, sulla base dei risultati del campionamento casuale e degli algoritmi il giocatore può determinare le posizioni probabili delle navi degli altri giocatori. I metodi deterministici di integrazione numerica operano considerando un numero di campioni uniformemente distribuiti. In generale, questo metodo lavora molto bene per funzioni di una variabile. Tuttavia, per funzioni di vettori, i metodi deterministici di quadratura possono essere molto inefficienti. Per integrare numericamente una funzione di un vettore bidimensionale, sono richieste griglie di punti equispaziati sulla superficie stessa. Per esempio una griglia di 10x10 richiede 100 punti. Se il vettore è a 100 dimensioni, la stessa spaziatura sulla griglia dovrebbe richiedere 10100 punti– questo potrebbe essere troppo dispendioso computazionalmente. Le 100 dimensioni non hanno un significato irragionevole, poiché in molti problemi di fisica, una "dimensione" è equivalente a un grado di libertà. I metodi di Monte Carlo forniscono una soluzione a questo problema di crescita esponenziale del tempo. Finché la funzione in questione ha un buon comportamento, può essere valutata selezionando in modo casuale i punti in uno spazio 100-dimensionale, e prendendo alcune tipologie di medie dei valori della funzione in questi punti. Per il teorema del limite centrale, questo metodo mostrerà ordine di convergenza ; per esempio quadruplicando il numero dei punti equispaziati dimezza l'errore, nonostante il numero delle dimensioni. Una caratteristica di questo metodo è quella di scegliere i punti in modo casuale, ma vengono scelti con maggior probabilità i punti che appartengono alle regioni che contribuiscono maggiormente al calcolo dell'integrale rispetto a quelli che appartengono a regioni di basso contributo. In altre parole, i punti dovrebbero essere scelti secondo una distribuzione simile in forma alla funzione integranda. Comprensibilmente, fare ciò è difficile tanto quanto risolvere l'integrale, ma ci sono altri metodi di approssimazione possibili: a partire da quelli che costruiscono una funzione integrabile simile a quella da integrare, fino ad arrivare ad una delle procedure adattive. Un simile approccio implica l'uso di low-discrepancy sequences piuttosto del metodo quasi-Monte Carlo. I metodi Quasi-Monte Carlo spesso possono essere più efficienti come metodi di integrazione numerica poiché la successione Metodo Monte Carlo di valori generata riempie meglio l'area e le successive valutazioni possono far convergere più velocemente la simulazione alla soluzione. Esempio Si voglia stimare il rendimento mensile di un titolo azionario. Il titolo esiste da cinque anni, quindi si hanno a disposizione solo 60 rendimenti mensili. Supponiamo che i rendimenti si distribuiscano seguendo una variabile casuale normale. Calcoliamo: • Media campionaria • Scarto quadratico medio campionario, su base giornaliera (che poi si adatterà con la formula della radice quadrata del tempo al periodo mensile.) Con un modello di regressione lineare cercheremo di stimare la media a un mese. Successivamente, si andranno a generare attraverso l'algoritmo Monte Carlo una serie di medie "sperimentali" che saranno ricavate da una distribuzione normale (perché si è ipotizzato che i rendimenti seguano questa distribuzione) con media pari alla media stimata e scarto quadratico medio pari allo scarto quadratico medio campionario a un mese. Una strategia per procedere e stimare la vera media del fenomeno, a questo punto, può essere quella di ricavare la media generale di tutte le medie sperimentali ottenute. I dati ottenuti forniscono stime tanto migliori quanto maggiore è il numero delle prove fatte. Il metodo é molto usato in varie discipline. Tra le possibili applicazioni: fisica statistica e ingegneria, dove si presta molto bene a risolvere problemi legati, ad esempio, alla fluidodinamica; in economia e finanza per prezzare i derivati e le opzioni non standard; in informatica, per simulare l'illuminazione naturale; in chimica computazionale il Monte Carlo quantistico è un metodo per la determinazione della struttura elettronica; ecc… È molto potente se usato in combinazione con altri metodi non parametrici come il resampling. Discussione analitica Per un modello stocastico sia θ la quantità da determinarsi. Si esegua una simulazione, generando la variabile casuale X1 in modo che θ sia il valore atteso di X1. Consideriamo una seconda simulazione, generando una variabile casuale X2 tale che il suo valore atteso sia sempre θ. Proseguiamo con k simulazioni, generando fino a k variabili casuali Xk con E[Xk] = θ. Come stimatore di θ possiamo prendere la media aritmetica delle k variabili casuali generate, cioè in quanto è ovviamente E[X] = θ. Qual è il valore più appropriato di k? Supponiamo di avere n variabili aleatorie indipendenti, X1, ..,Xn aventi la stessa distribuzione. Sia σ2 la varianza della variabile Xi e θ il valore atteso (E[Xi] = θ, Var(Xi) = σ2). La media campionaria X viene definita da Il suo valore atteso è: Quindi X è uno stimatore non distorto (cioè con valore atteso uguale a quello del parametro) di θ. La sua varianza, usando la formula di Bienaymé è: 181 Metodo Monte Carlo Pertanto X è una variabile aleatoria con media θ e varianza σ2/n; ne segue che X è uno stimatore efficiente quando σ/√n è piccolo. Fissata una tolleranza per σ2/n ed avendo stimato σ2 si può in tal modo stimare n. Si può imporre che il valore atteso ottenuto con lo stimatore stia dentro un ben definito intervallo di confidenza. Si può a tale scopo utilizzare una conseguenza del teorema del limite centrale. Sia X1, X2, …, Xn …, una successione di variabili casuali indipendenti e distribuite identicamente aventi la media finita μ e la varianza finita σ2. Allora dove Φ(x) è la funzione di distribuzione di una variabile casuale normale standard, Quando n>>1 il teorema del limite centrale ci dice che la variabile è approssimativamente distribuita come una variabile aleatoria normale unitaria, indicata con N(0,1), cioè con media zero e varianza 1. Sia ora zα, dove 0< α <1, quel numero tale che, per una variabile normale unitaria, si abbia P(Z > zα ) = α Allora, dal teorema del limite centrale si ha che , asintoticamente per n grande Che afferma che la probabilità che la media θ sia compresa nell'intervallo è (1 - α). Perciò, assegnato 1-α e conoscendo σ, si può stimare il minimo valore di n necessario. Nasce quindi il problema di come stimare la varianza σ2 = E[(X - θ)2] Definizione. La varianza del campione S2 è definita da Vale il seguente risultato. Proposizione. E[S2]= σ2 Infatti si ha: ne segue Per una variabile aleatoria si ha: E quindi Inoltre Ne segue 182 Metodo Monte Carlo 183 Supponiamo ora di avere n variabili aleatorie indipendenti X1, X2, …, Xn aventi la stessa funzione di distribuzione F e di volere stimare il parametro θ(F) (per evidenziare che tale quantità deve essere calcolata rispetto alla funzione di distribuzione F). Sia g(X1, X2, …, Xn) lo stimatore proposto per θ(F); se questo non corrisponde al valore medio, il metodo precedentemente esposto per stimare la varianza dello stimatore non si può applicare. Vediamo come si può stimare l'errore quadratico medio che si commette quando si usa questo stimatore: Dove il pedice F significa che il valore d'aspettazione viene calcolato rispetto alla funzione di distribuzione F che per il momento è incognita. Un metodo per stimare tale quantità è quello del bootstrap, utilizzando la funzione di distribuzione empirica Fe(x) definita da: La legge forte dei grandi numeri afferma che per n molto grande, con probabilità 1, Fe(x) tende a F(x). Allora un valore approssimato di EQM(F) è dato da (approssimazione di bootstrap): Va rilevato, da un punto di vista operativo, che il dimensionamento della simulazione si supera facilmente grazie alla crescente disponibilità di potenza di calcolo. In altre parole, procedendo all'uso del metodo su calcolatore, sarà sufficiente generare una serie di prove di ampiezza sicuramente ridondante per assicurarsi la significatività della stima. Esempio: determinare il valore π Sia M un punto di coordinate (x,y) con 0<x<1 e 0<y<1. Scegliamo casualmente i valori di x e y. Sia allora il punto M appartiene al disco di centro (0,0) di raggio 1. La formula per determinare l'area di un disco è il raggio elevato al quadrato per π. Nell'esempio il raggio è pari a uno e quindi l'area di interesse è 1*π = π. Il punto può cadere solo in uno dei quattro quadranti del disco e quindi la probabilità che cada all'interno del disco è π/4. Facendo il rapporto del numero dei punti che cadono nel disco con il numero dei tiri effettuati si ottiene un'approssimazione del numero π/4 se il numero dei tiri è grande. Eseguendo numericamente l'esempio si ottiene un andamento percentuale dell'errore mostrato nel grafico sottostante. Metodo Monte Carlo Andamento % dell'errore tra il pi-greco teorico e il pi-greco calcolato. Il programma ha eseguito 1370 milioni di lanci. Si noti che all'inizio l'errore è molto elevato ma rapidamente tende a decrescere. Essendo un metodo statistico ci possono essere dei temporanei innalzamenti dell'errore ma la tendenza è la sua diminuzione all'aumento dei lanci. Esempio: determinare la superficie di un lago Questo è un esempio classico della divulgazione del metodo Monte-Carlo. Sia data una zona rettangolare o quadrata di cui la lunghezza dei lati è conosciuta. Al centro di quest'area si trova un lago la cui superficie è sconosciuta. Grazie alle misure dei lati della zona, si conosce l'area del rettangolo. Per determinare l'area del lago, si chiede ad una truppa armata di tirare X colpi di cannone in modo aleatorio su questa zona. Contiamo in seguito il numero N di palle che sono restate sulla terra, possiamo quindi determinare il numero di palle che sono cadute dentro il lago: X-N. È sufficiente quindi stabilire un rapporto tra i valori: Per esempio, se il terreno ha superficie di 1000 m2, e supponiamo che l'armata tiri 500 palle e che 100 proiettili sono caduti dentro il lago allora la superficie del lago è di: 100*1000/500 = 200 m2. Naturalmente, la qualità della stima migliora aumentando il numero dei tiri ed assicurandosi che l'artiglieria non miri sempre lo stesso posto ma copra bene la zona. Questa ultima ipotesi coincide con l'ipotesi di avere un buon 184 Metodo Monte Carlo generatore di numeri aleatori, questa condizione è indispensabile per avere dei buoni risultati con il metodo Monte Carlo. Un generatore distorto è come un cannone che tira sempre nello stesso punto: le informazioni che genera sono ridotte. Note [1] Carlo Jacoboni e Paolo Lugli, The Monte Carlo Method for Semiconductor Device Simulation - Springer-Verlag [2] http:/ / www. chessbase. com/ newsdetail. asp?newsid=5075 Bibliografia • W.K Hastings, Monte Carlo sampling methods using Markov chains and their applications, Biometrikam, 1970; 57: 97-109 • Bernd A. Berg, Markov Chain Monte Carlo Simulations and Their Statistical Analysis (With Web-Based Fortran Code), World Scientific 2004, ISBN 981-238-935-0. • P. Kevin MacKeown, Stochastic Simulation in Physics, 1997, ISBN 981-3083-26-3 • Harvey Gould & Jan Tobochnik, An Introduction to Computer Simulation Methods, Part 2, Applications to Physical Systems, 1988, ISBN 0-201-16504-X • C.P. Robert and G. Casella. "Monte Carlo Statistical Methods" (second edition). New York: Springer-Verlag, 2004, ISBN 0-387-21239-6 • Makers of commercial packages which implement Monte Carlo algorithms in include Palisade Corporation (@Risk) (http://www.palisade.com), Decisioneering (Crystal Ball) (http://www.decisioneering.com) and Vanguard Software (DecisionPro) (http://www.vanguardsw.com/decisionpro/ monte-carlo-simulation-software.htm) • Mosegaard, Klaus., and Tarantola, Albert, 1995. Monte Carlo sampling of solutions to inverse problems. J. Geophys. Res., 100, B7, 12431-12447. • Tarantola, Albert, Inverse Problem Theory ( free PDF version (http://www.ipgp.jussieu.fr/~tarantola/Files/ Professional/SIAM/index.html)), Society for Industrial and Applied Mathematics, 2005. ISBN 0-89871-572-5 • Morin, L. Richard, Monte Carlo Simulation in the Radiological Sciences, CRC Press, ISBN 0-8493-5559-1. Voci correlate • FLUKA • Metodo Monte Carlo Dinamico • Tissue simulation toolkit Altri progetti • Wikibooks contiene testi o manuali: http://it.wikibooks.org/wiki/Implementazioni_di_algoritmi/ Metodo_Monte_Carlo • Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/ Category:Monte-Carlo method 185 Metodo Monte Carlo Collegamenti esterni • • • • • • • • http://epicws.epm.ornl.gov/rsic.html ORNL Radiation Safety Information Computational Center (RSICC) http://www.nea.fr/html/dbprog/NEA Data Bank Computer Program Services Monte Carlo techniques applied in physics (http://www.princeton.edu/~achremos/Applet1-page.htm) http://homepages.nyu.edu/~sl1544/articles.html Simon Leger, Article on Monte Carlo techniques applied to finance Pricing using Monte Carlo simulation (http://knol.google.com/k/giancarlo-vercellino/ pricing-using-monte-carlo-simulation/11d5i2rgd9gn5/3#), a practical example, by Giancarlo Vercellino http://homepages.nyu.edu/~sl1544/MonteCarloNuls.pdf Simon Leger, Introduction aux techniques de Monte Carlo appliquees a la finance et introduction aux techniques plus avancees. http://www.fluka.org/A particle physics MonteCarlo simulation package Chessbase (http://www.chessbase.com/newsdetail.asp?newsid=5075) tutorial analisi scacchistica con il Metodo Montecarlo Software Statistici • MCMCpack Package R (http://cran.r-project.org/web/packages/MCMCpack/index.html) 186 187 Defaticamento Statistica La statistica è una disciplina che ha come fine lo studio quantitativo e qualitativo di un particolare fenomeno in condizioni di non determinismo o incertezza ovvero di non completa conoscenza di esso o parte di esso. Studia i modi (descritti attraverso formule matematiche) in cui una realtà fenomenica - limitatamente ai fenomeni collettivi può essere sintetizzata e quindi compresa. La statistica studia come raccogliere i dati e come analizzarli per ottenere l'informazione che permetta di rispondere alle domande che ci poniamo. Si tratta di avanzare nella conoscenza partendo dall'osservazione e dall'analisi della realtà in modo intelligente e obiettivo. È l’essenza del metodo scientifico.[1] La statistica, per molti etimologicamente legata a status (inteso come stato politico, così come stato delle cose: status rerum) fu definita e proposta dal filosofo tedesco Achenwall nel XVIII secolo come scienza deputata a raccogliere dati utili per governare meglio. Oggi la statistica è utile ovunque sia necessaria una delle seguenti condizioni: • procedere ad una raccolta ordinata, ad una stesura comprensibile e ad una elaborazione dei dati più svariati; • scoprire eventuali leggi che regolano i dati spesso solo in apparenza disordinati ed operarne il confronto; • definire una variabile di riferimento che assuma diversi valori definibili in un certo intervallo di variazione. Con il termine statistica, nel linguaggio di tutti i giorni, si indicano anche semplicemente i risultati numerici (le statistiche richiamate nei telegiornali, ad esempio: l'inflazione, il PIL etc.) di un processo di sintesi dei dati osservati. La statistica è in qualche modo legata alla teoria della probabilità rientrando entrambe nel più vasto ambito della teoria dei fenomeni aleatori, ma mentre la teoria della probabilità si occupa di fornire modelli teorici probabilistici ovvero distribuzioni di probabilità adattabili ai vari fenomeni aleatori reali definendo i parametri della variabile aleatoria in questione, la statistica parte da un campione aleatorio per descrivere le sue proprietà statistiche oppure risalire o inferire al modello probabilistico sotteso e alla stima dei suoi parametri (media, varianza, deviazione standard, moda, mediana). Importanza e applicazioni Il metodo e le tecniche statistiche, tipicamente teoriche, assumono importanza fondamentale in molti altri ambiti applicativi di studio quale ad esempio la fisica (fisica statistica) qualora per manifesta complessità di analisi si debba rinunciare ad avere informazioni di tipo deterministico su sistemi fisici complessi o a molti gradi di libertà accettandone invece una sua descrizione statistica. Tra queste discipline ci sono anche l'economia, che si appoggia fortemente alla statistica (statistica economica, statistica aziendale ed econometria, oltre alla teoria dei giochi e delle decisioni) nella descrizione qualitativa (serie storiche) e quantitativa (modelli statistici) dei fenomeni socio-economici che incorrono all'interno del sistema economico; e alla psicologia, che si appoggia alla statistica nella ricerca delle caratteristiche e degli atteggiamenti degli individui e le loro differenze (psicometria). La statistica è uno strumento essenziale nella ricerca medica. La biostatistica fornisce infatti gli strumenti per tradurre l’esperienza clinica e di laboratorio in espressioni quantitative, tese a individuare se, e in che misura, un trattamento o una procedura abbia avuto effetto su un gruppo di pazienti.[2] Un'altra applicazione estremamente comune nella società è quella dei sondaggi, analisi di mercato e in generale qualunque analisi di dati campionari. Statistica Cenni storici La misura quantitativa dei fenomeni sociali ha una storia antica.[3] In Egitto si rilevava l'ammontare della popolazione già ai tempi della prima dinastia e durante la seconda si rilevavano vari beni a fini fiscali. Durante le dinastie successive si tenevano elenchi delle famiglie dei soldati, dei dipendenti statali, delle merci. Sotto la ventesima dinastia si tenevano liste delle abitazioni e dei loro abitanti. In Israele il primo censimento fu fatto ai tempi del soggiorno nel Sinai (da cui il libro dei Numeri della Bibbia) e altri ne seguirono. Anche l'immenso impero cinese ha sempre curato i censimenti, che nell'epoca dei Ming avevano cadenza decennale. Non si hanno invece notizie di censimenti nella Grecia antica, ma venivano registrati ogni anno i nati dell'anno precedente. La rilevazione dei cittadini e dei loro beni ebbe grande importanza nella Roma antica. Il primo censimento fu ordinato da Servio Tullio e si ebbero poi censimenti con periodicità quinquennale dalla fine del VI secolo a.C., decennale a partire da Augusto. La caduta dell'impero romano comportò la sospensione di tali attività per secoli, fino alla ricostituzione di organismi statali da parte dei Carolingi. Il sorgere dei Comuni, poi delle signorie, delle repubbliche marinare e degli Stati nazionali comportò una progressiva frammentazione non solo politica, ma anche amministrativa. Già dal XII secolo si ebbero rilevazioni statistiche in Italia, da Venezia alla Sicilia, con obiettivi prevalentemente fiscali. Ebbero poi crescente importanza le registrazioni su nascite, matrimoni e morti effettuate dalle parrocchie, iniziate in Italia ed in Francia fin dal XIV secolo. L'esigenza di quantificare i fenomeni oggetto di studio, ossia di analizzarli e descriverli in termini matematici, fu una tendenza tipica del XVII secolo: non fu solo l'Universo ad essere concepito come un grande libro "scritto in caratteri matematici" - come aveva affermato Galileo Galilei -, ma si diffuse anche la convinzione che fosse possibile studiare la società tramite strumenti di tipo quantitativo. In genere, le origini della statistica nella concezione più moderna, si fanno risalire a quella che un economista e matematico inglese, William Petty (1623 - 1687), chiamò "aritmetica politica", ovvero "l'arte di ragionare mediante le cifre sulle cose che riguardano il governo"; tra le cose che maggiormente stavano a cuore al governo, del resto, vi erano l'entità della popolazione e la quantità di ricchezza che essa aveva a sua disposizione, dalle quali dipendeva in ultima analisi la forza degli Stati in competizione tra loro. Demografia e calcolo del reddito nazionale furono quindi gli ambiti in cui si esercitò la creatività dei primi "aritmeti politici". Nel primo campo un autentico precursore fu John Graunt (1620 - 1674), un mercante londinese, che tramite lo studio dei registri di mortalità, riuscì per primo a rilevare l'approssimativa costanza di certi rapporti demografici e a costruire una prima e rudimentale "tavola della mortalità". Le sue Natural and Political Observations on the Bills of Mortality risalente al 1662 possono essere considerate a buon diritto come l'opera fondatrice della demografia. Il metodo statistico elaborato da Graunt per il settore demografico fu poi ripreso da William Petty, che nel suo Fuve Essays on the Political Arithmetic del 1690 espose i principi fondamentali della nuova disciplina. Nei medesimi anni, venne data alle stampe l'opera di un altro grande aritmeta politico, Gregory King (1648 - 1712), il quale nelle sue Natural and Political Observations and Conclusion upon the State and Condition of England risalente al 1698 formulò una stima della popolazione e del reddito totale dell'Inghilterra, giungendo a conclusioni ritenute abbastanza verosimili. In Francia un tentativo simile venne effettuato dal ministro del re Luigi XIV ed economista Sebastien de Vauban (1633 - 1707), che stimò la popolazione del Regno di Francia intorno ai venti milioni di abitanti - valutazione condivisa dagli storici attuali. Ai problemi statistici si interessarono anche alcune delle menti più brillanti dell'epoca: il fisico olandese Christiaan Huygens (1629 - 1695) elaborò delle tavole di mortalità, l'astronomo inglese Edmund Halley (1656 - 1742) avanzò una serie di ipotesi sul numero di abitanti dei vari Paesi europei, mentre in Germania il grande filosofo Gottfried Leibniz (1646 - 1716) suggerì la creazione di un ufficio statale di statistica. 188 Statistica Nel frattempo, in concomitanza con lo sviluppo di queste prime ed ancora rudimentali metodologie demografiche, ci si cominciò a porre questo tipo di problemi anche per quanto concerneva la storia precedente: ciò indusse a guardare in modo critico e diffidente ai dati forniti da quegli autori del passato che avevano cercato di quantificare il numero di abitanti di un territorio, le dimensioni di un esercito, i morti per un'epidemia, ecc. Un contributo importante, sotto questo profilo, venne da uno dei più grandi pensatori del XVIII secolo, lo scozzese David Hume (1711 - 1776) il cui Of the Populousness of Ancient Nations diede inizio alla demografia storica. In tale testo Hume rilevò come le cifre tramandateci dagli antichi fossero particolarmente inaffidabili, non solo perché le loro stime non avevano basi solide, ma anche perché i numeri di ogni tipo contenuti negli antichi manoscritti sono stati soggetti ad un'alterazione molto maggiore di qualsiasi altra parte del testo, in quanto ogni altro tipo di alterazione modifica il senso e la grammatica ed è quindi più facilmente individuata dal lettore e dal trascrittore. In Italia venne creato un Ufficio Statistico Nazionale nel 1861, che poi diventò ISTAT nel 1926. Statistica descrittiva e inferenziale La scienza statistica è comunemente suddivisa in due branche principali: • statistica descrittiva • statistica inferenziale. La statistica descrittiva La statistica descrittiva ha come scopo quello di sintetizzare i dati attraverso i suoi strumenti grafici (diagrammi a barre, a torta, istogrammi, boxplot) e indici (indicatori statistici, indicatori di posizione come la media, di variazione come la varianza e la concentrazione, di correlazione, ecc.) che descrivono gli aspetti salienti dei dati osservati, formando così il contenuto statistico. La statistica inferenziale La statistica inferenziale (inferenza vuol dire trarre delle conclusioni logiche a partire dai dati disponibili) ha come obiettivo, invece, quello di stabilire delle caratteristiche dei dati e dei comportamenti delle misure rilevate (variabili statistiche) con una possibilità di errore predeterminata. Le inferenze possono riguardare la natura teorica (la legge probabilistica) del fenomeno che si osserva. La conoscenza di questa natura permetterà poi di fare una previsione (si pensi, ad esempio, che quando si dice che "l'inflazione il prossimo anno avrà una certa entità" deriva dal fatto che esiste un modello dell'andamento dell'inflazione derivato da tecniche inferenziali). La statistica inferenziale è fortemente legata alla teoria della probabilità. Sotto questo punto di vista descrivere in termini probabilistici o statistici una fenomeno aleatorio nel tempo, caratterizzabile dunque da una variabile aleatoria, vuol dire descriverlo in termini di densità di distribuzione di probabilità e dei suoi parametri di media o valore atteso e varianza. La statistica inferenziale si suddivide poi in altri capitoli, di cui i più importanti sono la teoria della stima (stima puntuale e stima intervallare) e la verifica delle ipotesi. La statistica esplorativa Intorno al 1950, a questi due primi capitoli della statistica, se ne affiancò un terzo • la statistica esplorativa ad opera di John Wilder Tukey. In questo approccio i dati risultati da un esperimento vengono indagati attraverso metodi di sintesi (grafica e numerica) al fine di formulare ipotesi riguardo alla legge di probabilità sottesa al fenomeno studiato (questa è la differenziazione con la statistica inferenziale, in cui è sempre sottesa un'ipotesi riguardo alla legge di probabilità di cui i dati sono la controparte osservabile). Lo sviluppo naturale poi della statistica esplorativa è il data-mining (che agisce nel Data warehouse). La ricerca esplorativa è mirata a: 189 Statistica 1. 2. 3. 4. 5. sviluppare una più precisa formulazione di un problema definito in via preliminare anche in modo piuttosto vago; formulare ipotesi sulle possibili variabili che agiscono nel contesto in cui si sviluppa il problema; stabilire priorità sulle questioni da affrontare e studiare; identificare e formulare le alternative di scelta possibili; raccogliere informazioni sul problema, che serviranno poi per condurre una ricerca di tipo conclusivo. In sostanza gli scopi principali di questo tipo di ricerca consistono nella formulazione di congetture o affermazioni (ipotesi molto generali e non ancora formalizzate per un trattamento statistico) riguardo, ad esempio, alla relazione fra due o più variabili. La formulazione di questo tipo di ipotesi spesso scaturisce dall’impiego di specifiche e prestabilite procedure, quali: la ricerca di fonti secondarie; indagini presso informatori-chiave (es. esperti); focus group, la compilazione di casi di studio. Note [1] Pere Grima. La certezza assoluta e altre finzioni. I segreti della statistica. RBA Italia (Mondo matematico 13); 2011. [2] Stanton A. Glantz. Statistica per discipline biomediche. McGraw-Hill; 2007. ISBN 9788838639258. [3] Le informazioni che seguono sono tratte dal Leti. L'Associazione nazionale statistici è l'associazione che ha lo scopo della tutela degli statistici e la divulgazione della cultura statistica. Bibliografia • Massimiliano Gallo, L’esame di statistica, UNI Service, Trento, 2009, ISBN 978-88-6178-338-6. • S. Borra, A. Di Ciaccio. Statistica: metodologie per le scienze economiche e sociali, Milano, McGraw-Hill, 2008, ISBN 978-88-386-6428-1. • M. K. Pelosi, T. M. Sandifer, P. Cerchiello, P. Giudici. "Introduzione alla Statistica", Milano, McGraw-Hill, 2008, ISBN 978-88-386-6516-5. • D. Piccolo. Statistica. Bologna, Il Mulino, 2000. • G. Leti. Statistica descrittiva. Bologna, Il Mulino, 1983. • G. Landenna, D. Marasini, P. Ferrari. Teoria della stima. Bologna, Il Mulino, 1997. • G. Landenna, D. Marasini, P. Ferrari. La verifica di ipotesi statistiche. Bologna, Il Mulino, 1998. • G. Landenna, D. Marasini, P. Ferrari. Probabilità e variabili casuali. Bologna, Il Mulino, 1997. • Yuri A. Rozanov (1995): Probability Theory, Random Processes and Mathematical statistics, Kluwer, ISBN 0-7923-3764-6 • Mark J. Schervish (1997): Theory of Statistics, Springer, ISBN 0-387-94546-6 • Jun Shao (1999): Mathematical statistics, Springer, ISBN 0-387-98674-X • Vijay K. Rohatgi, A. K. Md. Ehsanes Saleh (2002): An introduction to Probability and Statistics, 2nd edition, J.Wiley, ISBN 0-471-34846-5 • Alberto Rotondi, Paolo Pedroni, Antonio Pievatolo (2005): Probabilità, statistica e Simulazione, Springer, ISBN 88-470-0262-1 • A.M. Mood, F.A. Graybill, D.C. Boes (1991): Introduzione alla statistica, McGraw Hill Italia, ISBN 88-386-0661-7 • Leti G. (1983): Statistica descrittiva, Il Mulino, ISBN 88-15-00278-2 • Rizzi A. (1992): Inferenza Statistica, UTET, ISBN 88-7750-014-X • Vitali O. (1993): Statistica per le scienze applicate, Cacucci editore, ISBN 600-04-1098-0 • Mondani A. (1991): Corso di statistica descrittiva, LED Edizioni Universitarie, ISBN 978-88-791-600-28 • A. M. Gambotto Manzone, B. Consolini: Nuovo Matematica Generale e Applicata con gli strumenti informatici Modulo 6 - Statistica e calcolo delle probabilità, Tramontana, ISBN 978-88-233-02-889. 190 Statistica 191 Voci correlate Storia e personaggi Campionamento statistico Branche • • • • • • • • • Storia della statistica Statistici celebri, tra i quali gli italiani Cantelli, Castelnuovo, de Finetti, Gini, Perozzo Istituti • • • • EUROSTAT Istituto Internazionale di Statistica ISTAT Sistema Statistico Nazionale Probabilità Spazio campionario Stima Stimatore Variabile (statistica) Valore atteso Media Moda Mediana Indicatori di dispersione • • • • • • • • • Analisi della varianza Correlazione Ipotesi nulla • • • • • Test di verifica d'ipotesi Legge dei grandi numeri Legge degli eventi rari Regressione lineare Variabile casuale • Indicatori di posizione • • • • Varianza Disuguaglianza di Čebyšëv Indice di concentrazione Indice di diversità Indice di Laakso-Taagepera Propagazione degli errori Econometria Geostatistica Statistica multivariata • • • • • Analisi delle componenti principali Statistica economica Statistica medica Statistica non parametrica Analisi testuale Qualità Altri concetti chiave e sottodiscipline • • • • • Contenuto statistico Data warehouse Indicatore statistico Segreto statistico Rappresentazioni grafiche in statistica Indicatori di forma • • Curtosi Simmetria Altri progetti • Wikisource contiene opere originali: http://it.wikisource.org/wiki/Categoria:Statistica • Wikizionario contiene la voce di dizionario: http://it.wiktionary.org/wiki/statistica • Wikiversità contiene informazioni: http://it.wikiversity.org/wiki/Materia:Statistica • • Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Statistics Wikiquote contiene citazioni: http://it.wikiquote.org/wiki/Statistica Collegamenti esterni • • • • • • • Eurostat (http://epp.eurostat.ec.europa.eu/portal/page/portal/eurostat/home/) ISTAT (http://www.istat.it/) Società Italiana di Statistica - SIS (http://www.sis-statistica.it/) SIEDS, Società Italiana di Economia Demografia e Statistica (http://www.sieds.it/) Associazione Nazionale Statistici - ANASTAT (http://www.statistici.org/) Unione statistica dei comuni italiani (http://www.usci.it/) Statistiche online (http://stat.altervista.org) - Sito che permette di eseguire online calcoli statistici su una serie di dati. • Sardegna Statistiche (http://www.sardegnastatistiche.it) Regione Sardegna • (EN) (IT) Codice Java per calcoli statistici (http://freejavacodex.altervista.org/Statistics.html) - Codici Java openSource Statistica • Statistica (http://search.dmoz.org/cgi-bin/search?search=Statistica&all=yes&cs=UTF-8&cat=World/ Italiano) su Open Directory Project ( Segnala (http://www.dmoz.org/public/suggest?cat=) su DMoz un collegamento pertinente all'argomento "Statistica") Inferenza statistica L'inferenza statistica è il procedimento per cui si inducono le caratteristiche di una popolazione dall'osservazione di una parte di essa, detta campione, selezionata solitamente mediante un esperimento casuale (aleatorio). Da un punto di vista filosofico, si tratta di tecniche matematiche per quantificare il processo di apprendimento tramite l'esperienza. Si considereranno principalmente campioni casuali semplici di dimensione n > 1, che possono venire interpretati come n realizzazioni indipendenti di un esperimento di base, nelle medesime condizioni. Dal momento che si considera un esperimento casuale, si coinvolge il calcolo delle probabilità. Nell'inferenza statistica c'è, in un certo senso, un rovesciamento di punto di vista rispetto al calcolo delle probabilità. Nell'ambito di quest'ultimo, noto il processo di generazione dei dati sperimentali (modello probabilistico) siamo in grado di valutare la probabilità dei diversi possibili risultati di un esperimento. Nella statistica il processo di generazione dei dati sperimentali non è noto in modo completo (il processo in questione è, in definitiva, l'oggetto di indagine) e le tecniche statistiche si prefiggono di indurre le caratteristiche di tale processo sulla base dell'osservazione dei dati sperimentali da esso generati. Esempio Data un'urna con composizione nota di 6 palline bianche e 4 palline rosse, utilizzando le regole del calcolo delle probabilità possiamo dedurre che se estraiamo una pallina a caso dall'urna, la probabilità che essa sia rossa è 0,4. Si ha invece un problema di inferenza statistica quando abbiamo un'urna di cui non conosciamo la composizione, estraiamo n palline a caso, ne osserviamo il colore e, a partire da questo, cerchiamo di inferire la composizione dell'urna. Due approcci Nell'ambito dell'inferenza statistica, si distinguono due scuole di pensiero, legate a diverse concezioni, o interpretazioni, del significato della probabilità: • Inferenza classica, o frequentista; • Inferenza bayesiana. La prima è legata agli storici contributi di R. Fisher, K. Pearson, e rappresenta la posizione maggioritaria. La seconda, allo stato attuale (2005) ancora minoritaria ma in crescita, è fondata sull'uso del risultato del teorema di Bayes ai fini dell'inferenza statistica. Inferenza frequentista e bayesiana a confronto Sia l'approccio frequentista che l'approccio bayesiano hanno in comune anzitutto gli assiomi della probabilità nonché tutta la parte statistico-matematica. Anche il teorema di Bayes ha validità per entrambi gli approcci così come il fatto che in entrambi i casi si parla solitamente di statistica parametrica. Ciò che cambia è il significato da dare al concetto di probabilità, all'atteggiamento nel confronto dell'idea di una probabilità soggettiva e di conseguenza l'utilizzo e l'importanza che si dà al teorema di Bayes. Nell'ambito dell'inferenza statistica queste differenze si manifestano, da un lato, sul come e se utilizzare informazioni note prima di "vedere" i dati e di come quantificare tali informazioni e, dall'altro, vi sono approcci differenti sul come interpretare i risultati. 192 Inferenza statistica Un esempio sul come lo stesso esperimento venga visto dai due approcci può essere il seguente problema scolastico. In un'urna contenente palline identiche tra di loro salvo per il colore, una ignota percentuale π è di colore nero. Estraendo 100 volte una pallina che viene subito dopo riposta nell'urna succede ad esempio che per 30 volte la pallina fosse nera. In entrambi gli approcci la variabile casuale utilizzata è la variabile casuale binomiale: Il tipico approccio frequentista basato sull'intervallo di confidenza derivante dalle idee di Neyman porta a stabilire per il valore ignoto di π un intervallo di confidenza p.es. al 95% compreso tra 0,21 e 0,39. La confidenza al 95% non sta ad indicare che π è compreso con una probabilità del 95% tra 0,21 e 0,39 (si tratterebbe di una affermazione tipicamente bayesiana), ma indica che a partire dalle ipotesi, il metodo utilizzato, nel 95% dei casi fa delle affermazioni corrette, nel senso che il vero valore sarà veramente nell'intervallo calcolato. Questo approccio sottolinea che il valore ignoto π o è compreso nell'intervallo oppure non lo è, ma non dà valori probabilistici a questo essere compreso. Una stima puntuale sia dei minimi quadrati che della massima verosimiglianza porterebbe a stimare il valore di π con la stima p=30/100=0,3. L'approccio bayesiano invece formalizza anzitutto l'idea che si ha su come potrebbe essere forse, probabilmente il vero valore π, costruendo una variabile casuale discreta o continua sui possibili valori di π. Nel caso particolare che ci si voglia mettere in condizione di totale ignoranza, verrebbe considerata una Variabile casuale uniforme discreta o, vista la numerosità campionaria relativamente elevata (100 estrazioni), una variabile casuale rettangolare nell'intervallo compreso tra zero e uno. Scegliendo la rettangolare come distribuzione a priori si otterrebbe la seguente distribuzione a posteriori del parametro π: Il valore massimo, e dunque il più probabile, è dato anche in questo caso da k/n=30/100=0,3, valore già visto nell'approccio frequentista, con la differenza che questo è a posteriori il valore più probabile, vista le nostre idee a priori e i risultati dell'esperimento. Utilizzando la distribuzione a posteriori si può affermare che la probabilità che l'ignoto parametro π abbia un valore tra 0,216 e 0,393 è pari a 0.95 vale a dire a 95%, mentre i valori compresi nell'intervallo tra 0,21 e 0.39 hanno la probabilità del 95,3%. Riassumendo questo esempio: nell'approccio frequentista si fanno affermazioni su quante volte si dice il vero usando la tecnica usata, mentre nell'approccio bayesiano si attribuisce una probabilità di verità direttamente ad un intervallo. Questa differenza è a livello pratico spesso ignorata, ma dal punto di vista teorico è sostanziale. Si aggiunga il fatto che l'approccio bayesiano è in grado di utilizzare informazioni già in possesso, modificando la probabilità a priori e ottenendo così delle probabilità a posteriori diverse. Breve storia dell'inferenza statistica Nella storia della statistica, l'inferenza ha conosciuto due grandi periodi. Il primo cominciò alla fine del '800 e si sviluppò in maniera decisiva nella prima metà del XX secolo con i lavori di R. Fisher, K. Pearson, Jerzy Neyman, Egon Pearson e Abraham Wald con le fondamentali idee riguardanti la verosomiglianza, la potenza dei test di verifica d'ipotesi, gli intervalli di confidenza e altre. Il secondo grande periodo, tuttora in corso, è stato possibile grazie alla crescente potenza di calcolo dei computer, disponibili a prezzi sempre più abbordabili. Ciò ha permesso di allontanarsi da ipotesi comode dal punto di vista matematico ma non sempre adeguate alla realtà mettendo in pratica idee anche antiche come quella bayesiana che trova applicazioni pratiche solo in presenza della potenza di calcolo dei computer, come pure le tecniche di ricampionamento dei dati come il metodo Monte Carlo, bootstraping, metodo jackknife ecc. legati a personaggi quali John von Neumann, Stanisław Marcin Ulam, Bradley Efron, Richard von Mises e altri. 193 Inferenza statistica Temi legati all'inferenza statistica I seguenti temi costituiscono una lista, non necessariamente esaustiva, di argomenti ricompresi nell'inferenza statistica: • Stima, per punti o per intervalli; • Test di verifica d'ipotesi; • Previsione. Voci correlate • Inferenza bayesiana • Winsorizzazione Collegamenti esterni • Corso di statistica applicata alla microbiologia [1] Note [1] http:/ / www. iperserver. it/ mediawiki/ index. php/ Pagina_Principale Campionamento statistico In statistica il campionamento statistico (che si appoggia alla teoria dei campioni o teoria del campionamento), sta alla base dell'inferenza statistica, la quale si divide in due grandi capitoli: la teoria della stima e la verifica d'ipotesi. In particolare una rilevazione si dice campionaria quando è utile per fare inferenza ossia per desumere dal campione stesso un'informazione relativa all'intera popolazione. Campione e censimento Le indagini censuarie, al contrario, riguardano l'intera popolazione e pur essendo più affidabili riguardo al parametro oggetto d'indagine soffrono di: • Maggiori costi • Tempi più lunghi • Minore accuratezza e minori risorse concentrate sul controllo della qualità della rilevazione (quello che si guadagna in estensione si perde in profondità) Quindi mentre l'indagine censuaria fornisce il valore vero dei parametri di interesse (proporzioni, percentuali, medie, totali,...) quella campionaria restituisce una sua stima al quale è associato un certo grado di fiducia (ovvero un'incertezza) quantificabile quando la formazione del campione risponde a determinati criteri di tipo probabilistico. Il campionamento si usa quando si vuole conoscere uno o più parametri di una popolazione, senza doverne analizzare ogni elemento: questo per motivi di costi intesi in termini monetari, di tempo, di qualità o di disagio o perché analizzare un elemento lo distrugge rendendo inutilizzabile l'informazione ottenuta. 194 Campionamento statistico Scelta del campione Modalità di selezione del campione sono: • • • • Scelta di comodo (campionamento per quote o convenience sampling). Scelta ragionata (campionamento ragionato o judgmental sampling). Scelta casuale (campionamento casuale o random sampling). Scelta probabilistica (campionamento probabilistico o probabilistic sampling). Nella pratica quotidiana dei sondaggi di opinione e delle ricerche di mercato vengono usati tutti e quattro gli approcci. La scelta di un tipo di campionamento avviene in base alle proprietà degli stimatori di alcuni parametri oppure per tener conto di problemi di costo, mobilità o altro. Concetti chiave sono: • • • • base di campionamento popolazione d'analisi e popolazione di rilevazione Piano di campionamento e disegno di campionamento Errore di campionamento Storia Benché già nel '700 si sia notato il vantaggio nell'esaminare un sottinsieme della popolazione per generalizzare i risultati alla popolazione complessiva, è solo dalla fine dell'800 che la discussione sulla "scientificità" del campionamento viene posta in modo esplicito alla comunità statistica. Già agli inizi del '900 si vanno delineando le caratteristiche che un campione deve avere, ovvero che deve essere scelto in maniera casuale, e nell'arco di pochi anni compaiono i primi studi che mettono in evidenza che il campione non deve essere necessariamente un campione semplice ma può essere più complesso, per esempio stratificando. Importanti autori che hanno fatto la storia della teoria dei campioni sono stati tra gli altri: • Pierre-Simon de Laplace (che fece uso dei moltiplicatori per stimare il totale di una popolazione); • Adolphe Quételet (che accetta di generalizzare alla popolazione complessiva il tasso di analfabetismo osservato tra i delinquenti, ma rifiuta di generalizzare la percentuale di maschi tra i neonati); • Anders Nicolai Kiaer che nel 1895 avvia la discussione di merito in seno all'Istituto Internazionale di Statistica; • Ladislaus Bortkiewicz che con un suo intervento introduce seriamente la teoria della probabilità nella discussione sul campionamento; • Arthur Bowley che sviluppa il campionamento casuale, la stratificazione, e formula la varianza della stima del totale nel caso del campionamento semplice e nel caso del campionamento stratificato; • Aleksandr A. Čuprov, suo padre Aleksandr I. Čuprov, A. G. Kovalevskij e Jerzy Neyman che descrivono il campionamento stratificato, e, per quanto riguarda A. A. Čuprov e J. Neyman, anche scoprendo in modo indipendente l'allocazione ottima. Nel 1925, durante il congresso di Roma, l'Istituto Internazionale di Statistica accetta definitivamente come scientifico il metodo campionario, distinguendo il campionamento casuale dal campionamento ragionato. Altri autori importanti nella ricerca teorica ed applicata sul campionamento furono George Gallup e William G. Cochran. 195 Campionamento statistico Bibliografia • S. Brasini, M. Freo, F. Tassinari, G. Tassinari, Statistica aziendale e analisi di mercato, 2002, Manuali, Il Mulino, Bologna • M. Barisone, R. Mannheimer, I sondaggi, 1999, Il Mulino, Bologna • M. Chiaro, I sondaggi telefonici, 1996, CISU, Roma Box-plot In statistica il box-plot, detto anche box and whiskers plot (diagramma a scatola e baffi) o semplicemente boxplot, è una rappresentazione grafica utilizzata per descrivere la distribuzione di un campione tramite semplici indici di dispersione e di posizione. Viene rappresentato (orientato orizzontalmente o verticalmente) tramite un rettangolo diviso in due parti, da cui escono due segmenti. Il rettangolo (la "scatola") è delimitato dal primo e dal terzo quartile, q1/4 e q3/4, e diviso al suo interno dalla mediana, q1/2. I segmenti (i "baffi") sono delimitati dal minimo e dal massimo dei valori. In questo modo vengono rappresentati graficamente i quattro intervalli ugualmente popolati delimitati dai quartili. Rappresentazioni alternative Esistono scelte alternative per rappresentare il box-plot; tutte concordano sui tre quartili per rappresentare il rettangolo ma differiscono per la lunghezza dei segmenti, solitamente scelti più corti per evitare valori troppo "estremi", che vengono solitamente rappresentati solo come dei punti. Comunemente i segmenti possono venire delimitati da particolari quantili, solitamente della forma qα e q1-α, come q0,1 e q0,9. Altre alternative, che tuttavia possono portare a tracciare i segmenti all'interno del rettangolo, o a farli terminare oltre i valori estremi del campione, delimitano i segmenti con: • la media più o meno la deviazione standard; • i valori (5q1/4-3q3/4)/2 e (5q3/4-3q1/4)/2, in modo che entrambi i segmenti siano lunghi 3/2 volte la lunghezza del rettangolo. Voci correlate • Mediana • Quartile • Scarto interquartile Altri progetti • Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Box plots 196 Istogramma 197 Istogramma L'istogramma è la rappresentazione grafica di una distribuzione in classi di un carattere continuo. È costituito da rettangoli adiacenti le cui basi sono allineate su un asse orientato e dotato di unità di misura (l'asse ha l'unità di misura del carattere e può tranquillamente essere inteso come l'asse delle ascisse). L'adiacenza dei rettangoli dà conto della continuità del carattere. Ogni rettangolo ha base di lunghezza pari all'ampiezza della corrispondente classe; l'altezza invece è calcolata come densità di frequenza, ovvero essa è pari al rapporto fra la frequenza (assoluta) associata alla classe e l'ampiezza della classe. Esempio di istogramma L'area della superficie di ogni rettangolo coincide con la frequenza associata alla classe cui il rettangolo si riferisce e per tale caratteristica gli istogrammi rappresentano un tipo di areogramma. La somma delle aree dei rettangoli è uguale alla somma delle frequenze dei valori appartenenti alle varie classi. Volendo si può scegliere di rappresentare nell’istogramma le frequenze relative (anziché le semplici frequenze assolute) delle varie classi. Dividendo le frequenze relative di un istogramma per l'ampiezza di ciascuna classe si attuerà un processo di normalizzazione dell'istogramma ottenendo così un istogramma di densità la cui somma delle aree delle ampiezze di ciascuna classe rappresentata sarà uguale ad 1. Nell'ipotesi che la numerosità dei valori osservati tenda a infinito, e contemporaneamente l'ampiezza delle classi tenda a zero, l'istogramma converge, a sua volta, a una stima (seppur distorta) della legge di probabilità che regola l'esperimento casuale da cui si osserva il carattere. Gli istogrammi non devono essere confusi con i grafici a colonne: questi ultimi infatti, a differenza dei primi, hanno altezza proporzionale alla frequenza e sono costituiti da rettangoli separati tra loro. Gli istogrammi vengono spesso utilizzati nella fotografia digitale e nel fotoritocco per analizzare la luminosità di un'immagine. L'istogramma è uno dei sette strumenti della qualità, si costruisce partendo dalla massima escursione tra i dati dividendola per gli intervalli desiderati. Istogramma Voci correlate • Areogramma • Ortogramma Altri progetti • Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/ Category:Histograms Collegamenti esterni • (EN) Un metodo per la selezione dell'intervallo di classe di un istogramma [1] • (EN) Un altro metodo per eseguire la stima delle distribuzioni, la Kernel Density Estimation [2] • Generatore di grafici [3] Note [1] http:/ / 2000. jukuin. keio. ac. jp/ shimazaki/ res/ histogram. html [2] http:/ / research. cs. tamu. edu/ prism/ lectures/ pr/ pr_l7. pdf [3] http:/ / it. pictovia. com/ Quantile In statistica il quantile di ordine α è un valore qα che divide la popolazione in due parti, proporzionali ad α e (1-α) e caratterizzate da valori rispettivamente minori e maggiori di qα. Calcolo dei quantili Nel caso di una densità di probabilità la funzione di ripartizione F è continua e il quantile di ordine α è definito da F(qα)=α. Questo quantile può non essere unico se la funzione di densità è nulla in un intervallo, ovvero se la funzione di ripartizione è costante ed assume il valore α per più di un valore qα; ciononostante per ognuno di questi valori la popolazione viene correttamente divisa in due parti proporzionali ad α e (1-α). Nel caso di una densità discreta il quantile di ordine α è un valore qα nel quale la frequenza cumulata raggiunge o supera α, ovvero tale che la somma delle frequenze fino a quel valore sia almeno α e che la somma delle frequenze da quel valore sia al più 1-α. In questo caso, oltre alla non unicità del quantile si può avere una divisione non proporzionale ad α e 1-α (del resto una popolazione finita non può essere divisa che in un numero finito di modi). Nel caso di una distribuzione in classi di valori si usa talvolta "supporre" che i valori siano distribuiti in modo uniforme all'interno di ciascuna classe, in modo da calcolare il quantile (per interpolazione) su una funzione di ripartizione continua. In particolare il quantile di ordine 0 è un qualunque valore inferiore al minimo della popolazione; similmente il quantile di ordine 1 è un qualunque valore superiore al massimo della popolazione. I quantili possono anche venire utilizzati per indicare delle classi di valori: ad esempio l'insieme della popolazione "entro il terzo decile" indica quel 30% di popolazione con i valori più bassi. 198 Quantile Particolari quantili I quantili di ordini "semplici", espressi come frazioni, vengono anche chiamati con altri nomi. I quantili di ordini 1/n, 2/n, ..., (n-1)/n dividono la popolazione in n parti ugualmente popolate; il quantile di ordine α=m/n è detto m-esimo n-ile. • La mediana è il quantile di ordine 1/2. • I quartili sono i quantili di ordini 1/4, 2/4 e 3/4. Altri particolari quantili sono: • • • • I quintili, di ordine m/5, dividono la popolazione in 5 parti uguali. I decili, di ordine m/10, dividono la popolazione in 10 parti uguali. I ventili, di ordine m/20, dividono la popolazione in 20 parti uguali. I centili, di ordine m/100, dividono la popolazione in 100 parti uguali. Vengono anche chiamati percentili, esprimendo l'ordine in percentuale: m/100=m%. A causa della scrittura in frazioni, alcuni quantili hanno più di un nome: il secondo quartile è la mediana (2/4=1/2), ogni quintile è anche un decile (m/5=2m/10) e così via. Per lo stesso motivo il primo ed il terzo quartile sono rispettivamente le mediane della metà inferiore e della metà superiore della popolazione. I ventili e i centili esprimono livelli di confidenza molto utilizzati: 1%, 5%, 95%, 99%. La media aritmetica dei ventili dal primo al diciannovesimo è detta media ventile ed è uno stimatore robusto della media. I ventili sono anche utilizzati per definire indici di asimmetria e curtosi. Bibliografia • Sheldon M. Ross, 3.3.1 Percentili campionari [1] in Introduzione alla statistica [2], Apogeo Editore, 2008. ISBN 9788850326228 • Richard A. Johnson, 2.6 Quartili e percentili [3] in Probabilità e statistica per Ingegneria e Scienze [4], Pearson, 2007. ISBN 978-88-7192-348-2 • Sheldon M. Ross, 2.3.3 Percentili campionari e box plot [5] in Probabilità e statistica per l'ingegneria e le scienze [6] , Apogeo Editore, 2008. ISBN 9788850325801 • Francesca Cristante; Adriana Lis; Marco Sambin, III.3.9 Prime misure di posizione: percentili [7] in Statistica per psicologi [8], Firenze, Giunti Editore, 2001. ISBN 88-09-02176-2 Voci correlate • • • • Funzione di ripartizione Quartile Mediana (statistica) Variabile casuale Note [1] [2] [3] [4] [5] [6] [7] http:/ / books. google. it/ books?id=aMqf1U2DUEUC& pg=PA85& hl=it#v=onepage http:/ / books. google. it/ books?id=aMqf1U2DUEUC& printsec=frontcover& hl=it& source=gbs_ge_summary_r& cad=0#v=onepage http:/ / books. google. it/ books?id=0rQ45nxmFw8C& pg=PA35& hl=it#v=onepage http:/ / books. google. it/ books?id=0rQ45nxmFw8C& printsec=frontcover& hl=it& source=gbs_ge_summary_r& cad=0#v=onepage http:/ / books. google. it/ books?id=7Q8oKde1jXwC& lpg=PA28& hl=it& pg=PA28#v=onepage http:/ / books. google. it/ books?id=7Q8oKde1jXwC& printsec=frontcover& hl=it#v=onepage http:/ / books. google. it/ books?id=VDJh4bZce8wC& lpg=PA208& hl=it& pg=PA208#v=onepage [8] http:/ / books. google. it/ books?id=VDJh4bZce8wC& printsec=frontcover& hl=it& source=gbs_ge_summary_r& cad=0#v=onepage 199 Quartile Quartile In statistica, i quartili sono valori che ripartiscono una popolazione in 4 parti ugualmente popolate. Sono i quantili q1/4 (primo quartile), q2/4=q1/2 (mediana) e q3/4 (terzo quartile). In altri termini, la frequenza cumulata fino ai tre quartili è circa 25%, 50% e 75% rispettivamente. Il secondo quartile è anche detto mediana, e divide la popolazione in due parti ugualmente popolate, delle quali il primo ed il terzo quartile sono le mediane. I quartili di un campione ordinato X0, ..., Xn, sono "vicini" ai valori di ordini [n/4], [n/2] e [3n/4]. La differenza tra il terzo ed il primo quartile è un indice di dispersione, lo scarto interquartile; i quartili vengono inoltre utilizzati per rappresentare un Box-plot. Voci correlate • Box-plot • Mediana • Quantile • Scarto interquartile Indicatore statistico Un indicatore statistico è una funzione di un insieme finito o infinito di valori. In statistica si costruiscono per effettuare una sintesi dei dati. Descrizione Nella ricerca sociale, si usano concetti generali, troppo astratti per poter essere utilizzati nella ricerca empirica; è necessario dunque operativizzare i concetti: da un concetto generale (per es. "benessere") bisogna scendere nella scala di astrazione, semplificandolo (per es."benessere nella condizione economica" o " benessere ambientale"etc.), così facendo se ne riduce la complessità, selezionandone alcuni aspetti più significativi, che sono legati al concetto di partenza da un rapporto di indicazione, in quanto ne sono indicatori. È quindi necessario individuare, nell'ambito di ciascuno di essi, altri indicatori più concreti e più vicini alla realtà, scomponendoli in sotto-dimensioni (per es. "reddito"). In tal modo si ottengono le variabili, ultimo gradino della scala di astrazione, anch'esse indicatori del concetto generale. La modalità con cui si costruiscono le variabili è detta definizione operativa. Molto spesso le variabili che si usano a livello empirico derivano da un calcolo. Per es. per ottenere il reddito procapite è necessario dividere l'ammontare complessivo dei redditi di un comune per la popolazione stessa di quel comune. La scelta del reddito procapite piuttosto che ad es. del reddito complessivo ci evidenzia la relatività della definizione operativa. Il passaggio dal concetto generale all'indicatore specifico è sempre incompleto e parziale perché un processo di semplificazione comporta la perdita di una parte di informazione; ciò è ancora più evidente con concetti molto complessi per i quali bisogna ricorrere a più indicatori. Uno stesso concetto può essere ridotto ad indicatori diversi nell'ambito di indagini diverse e di contesti socio-culturali differenti. I diversi significati attribuibili a un indicatore inducono a considerare elastici i rapporti semantici tra concetti e livelli di generalità diversi. Individuando uno o più indicatori, attraverso il rapporto di indicazione, che esprime, anche se parzialmente, il significato del concetto generale, si può commettere un errore: l'errore di indicazione è la non validità che può 200 Indicatore statistico verificarsi proprio nel momento in cui si scelgono gli indicatori che esprimono in modo troppo parziale il concetto a cui si riferiscono, non coprendo così in maniera adeguata l'area semantica del concetto. La validità si riferisce perciò alla correttezza della concettualizzazione. Il ricercatore può valutare la validità ripercorrendo il processo di scomposizione del concetto (convalida a vista o per contenuto), oppure convalidando per criterio, cioè individuando un altro indicatore dello stesso concetto e controllando se è congruente con quello oggetto di verifica. Questa è una convalida empirica mentre quella per contenuto e teorica; entrambe non consentono di misurare "quanto" un indicatore sia valido. Gli errori che si possono compiere nella fase di definizione operativa riguardano l'attendibilità, ovvero sono errori che possono pregiudicare la capacità dei dati di riprodurre fedelmente le unità di analisi. Questo può avvenire: • usando liste di popolazione non aggiornate (errore di copertura) • nel caso di rilevazioni parziali in cui, se si usa un campione non probabilistico, non si può risolvere l'errore (errori di campionamento) • se i soggetti non rispondono (errore di non risposta) • nel caso in cui sia il rilevatore a compiere l'errore in quanto non adeguatamente preparato • nella modalità di raccolta (per es. le interviste tel. hanno ritmi serrati che potrebbero indurre a risposte poco attendibili) • nel trattamento dei dati che vengono trasferiti in archivi elettronici Dato che gli indicatori riguardano solo alcuni aspetti del concetto, attraverso un approccio sintetico finale, è possibile ricombinare le varie variabili per ricostruire così il concetto originario, ottenendo l'INDICE SINTETICO. Nell'analisi secondaria, invece, l'operativizzazione del concetto è già stata effettuata ed è a partire dalle variabili che si risale la scala di astrazione. A volte le variabili vanno modificate per essere più adatte all'indagine. [un indice non può essere definito indicatore fino a che non gli si attribuisce un referente concettuale nell'ambito della ricerca] Anche le rappresentazioni grafiche in statistica sono metodi (grafici) di sintesi dei dati. Indicatori nella teoria statistica Si distinguono: indice di posizione media, mediana, moda, quartile, quantile, ... indice di dispersione varianza, deviazione standard, scarto interquartile, coefficiente di variazione, indice di eterogeneità,... indice di concentrazione indice di concentrazione di Gini, indice di diversità indice di Shannon-Wiener, di Brillouin, di Simpson indice di correlazione covarianza, ... indice di simmetria vedasi Simmetria (statistica) indice di curtosi vedasi curtosi 201 Indicatore statistico Indicatori nella statistica ufficiale Nella varie branche della statistica si calcolano appositi indicatori, spesso definiti a livello internazionale. In generale, ogni volta che un dato aggregato non rappresenta fedelmente il fenomeno osservato (perché limitato nel tempo, nello spazio o nella definizione dell'universo statistico) tale dato aggregato può essere considerato un indicatore del fenomeno che si desidera osservare. Esempio il dato "Popolazione residente al 31 dicembre 2004" è un indicatore del numero di persone abitanti stabilmente nel territorio, ma non rappresenta fedelmente il fenomeno in quanto ci sono ritardi nelle registrazioni, esclude le persone che non si fanno registrare dalle anagrafi, perché cambia ogni giorno, perché stabilmente è un concetto vago ovvero arbitrario, ecc. Elenco di indici, tassi, ecc. usati nella pratica • Demografia • tasso • Tasso grezzo, tasso standardizzato • Tasso di mortalità, Tasso di natalità, Tasso di fecondità totale, Tasso di nuzialità • Piramide delle età, indice di vecchiaia, indice di sostituzione, indice di dipendenza • Tasso di immigrazione, Tasso di emigrazione, indice di mobilità • Popolazione residente, Popolazione presente • Tavola di mortalità (uno strumento che produce un insieme di indicatori demografici) • Economia • Tasso d'inflazione • Prodotto interno lordo e altri aggregati della Contabilità Nazionale (vedasi Statistica economica) • Mercato del lavoro • tasso di disoccupazione, tasso di occupazione, tasso di attività,... • Occupazione • Sanità, Epidemiologia • Tasso di morbosità • Istruzione • Tasso di scolarità, • Tasso di maturità, Tasso di ripetenza, • Tasso di abbandono scolastico Bibliografia • Per un indicatore di dipendenza strutturale rivisitato, cfr. il lavoro di Pammolli Fabio e Nicola C. Salerno (2008), "Demografia, occupazione, produttività: il federalismo e la sfida della crescita nel Mezzogiorno", nella collana dei Quaderni del Cerm – Competitività, Regolazione, Mercati (Roma). Si propone un rapporto tra fasce di età corretto per tener conto dell'occupazione effettiva e della produttività. Cfr. il sito del Cerm: [1] Note [1] http:/ / www. cermlab. it 202 Indice di posizione 203 Indice di posizione Gli indici di posizione (o anche indicatori di posizione, o indici di tendenza centrale o misure di tendenza centrale), in statistica, danno un'idea approssimata dell'ordine di grandezza (la posizione sulla scala dei numeri, appunto) dei valori esistenti. Sono indici di posizione: • media, comprese la media aritmetica, media geometrica e media armonica • mediana, quartile, quantile (o percentile) • moda Un modo per rappresentare graficamente alcuni indici di posizione è il box-plot. Voci correlate • statistica • indice di dispersione Intervallo di confidenza In statistica quando si stima un parametro, la semplice individuazione di un singolo valore è spesso non sufficiente. È opportuno allora accompagnare la stima di un parametro con un intervallo di valori plausibili per quel parametro, che viene definito intervallo di confidenza (o intervallo di fiducia). Se U e V sono variabili casuali con distribuzioni di probabilità che dipendono da qualche parametro θ, e (dove β è un numero tra 0 e 1) allora l'intervallo casuale (U, V) è un intervallo di confidenza al "[(1-β)*100 ]% per θ". I valori estremi dell'intervallo di confidenza si chiamano limiti di confidenza. Ad esso si associa quindi un valore di probabilità cumulativa che caratterizza, indirettamente in termini di probabilità, la sua ampiezza rispetto ai valori massimi assumibili dalla variabile aleatoria misurando cioè la probabilità che l'evento casuale descritto dalla variabile aleatoria in oggetto cada all'interno di tale intervallo, graficamente pari all'area sottesa dalla curva di distribuzione di probabilità della variabile aleatoria nell'intervallo considerato. Impostazione di Neyman C'è un metodo agevole per il calcolo degli intervalli di confidenza attraverso il test di verifica d'ipotesi (secondo l'impostazione di Neyman). L'intervallo di confidenza (o di fiducia) non sarà che un parametro test (con livello di significatività tutti i valori ) per saggiare l'ipotesi = che si ottiene determinando anzitutto un contro l'ipotesi . L'insieme di per cui si accetterebbe l'ipotesi nulla costituisce un intervallo di confidenza di livello Un intervallo di confidenza al 95% si può quindi ricavare da un test di verifica d'ipotesi di significatività 5%. Ipotesi nulla Ipotesi nulla Un'ipotesi nulla (letteralmente dall'inglese "ipotesi zero") è un'affermazione sulla distribuzione di probabilità di una o più variabili casuali. Nel test statistico viene verificata in termini probabilistici la validità di un'ipotesi statistica, detta appunto ipotesi nulla, di solito indicata con H0. Attraverso una funzione dei dati campionari si decide se accettare l'ipotesi nulla o meno. Nel caso l'ipotesi nulla venga rifiutata si accetterà l'ipotesi alternativa, indicata con H1. Se si rifiuta un'ipotesi nulla che nella realtà è vera allora si dice che si è commesso un errore di prima specie. Accettando invece un'ipotesi nulla falsa si commette un errore di seconda specie. L'ipotesi può essere di tipo funzionale se riferita alla forma della f (x;θ) con θ funzione di densità o di probabilità, o parametrica se riferita al vettore incognito θ. L'ipotesi è semplice quando specifica completamente la f(x;θ). Nel caso un'ipotesi non sia semplice si dirà composta. Quando si considera un solo parametro l'ipotesi semplice è del tipo θ=θ0, dove θ0 è un valore particolare. Un'ipotesi è unilaterale se è del tipo θ > θ0 oppure del tipo θ < θ0. Un'ipotesi è bilaterale, invece, se è del tipo θ ≠ θ0 oppure del tipo θ < θ0 e θ > θ0. Voci correlate • Ipotesi statistica • KPSS • Test di verifica d'ipotesi Test di verifica d'ipotesi Il test di verifica d'ipotesi si utilizza per verificare la bontà di un'ipotesi. Per ipotesi è da intendersi un'affermazione che ha come oggetto accadimenti nel mondo reale, che si presta ad essere confermata o smentita dai dati osservati sperimentalmente. Il metodo con cui si valuta l'attendibilità di un'ipotesi è il metodo sperimentale. Quest'ultimo consiste nel determinare le conseguenze di un'ipotesi in termini di eventi osservabili, e di valutare se la realtà effettivamente osservata si accorda o meno con l'ipotesi su di essa fatta. A tal riguardo si distinguono due ambiti in cui tale attività si esplica: 1. deterministico; 2. statistico. Nell'ambito statistico, a seconda delle ipotesi si distingue tra: • test parametrico; • test non parametrico. 204 Test di verifica d'ipotesi L'ambito deterministico Nel primo caso si è in grado di pervenire a conclusioni certe. Ad esempio volendo provare se in un circuito elettrico passa corrente si inserirà una lampadina o un amperometro e si constaterà l'accensione o l'attivazione dello strumento. In tal caso si perviene con certezza alla conclusione. Se la lampadina si accende allora passa corrente; in caso contrario il circuito non è predisposto correttamente. In questo ambito, se nel circuito passa corrente ogni volta che si inserisce una lampadina questa si accende. In caso contrario il ripetuto inserimento della lampadina darà sempre esito negativo. L'ambito statistico Nel secondo caso la situazione è modificata in quanto interviene un elemento nuovo, ovvero il caso. Si supponga di avere una moneta recante due facce contrassegnate con testa e croce. Volendo verificare l'ipotesi di bilanciamento della moneta si eseguono 20 lanci e si contano quelli che danno esito testa. La conseguenza del bilanciamento consiste nell'osservare un valore di teste attorno a 10. Tuttavia anche in ipotesi di bilanciamento non si può escludere di osservare 20 teste. D'altronde, l'ipotesi di bilanciamento è logicamente compatibile con un numero di teste variante da 0 a 20. In tale contesto una qualsiasi decisione in merito all'ipotesi da verificare comporta un rischio di errore. Ad esempio rigettare l'ipotesi di bilanciamento della moneta avendo osservato 20 teste su 20 lanci comporta il rischio di prendere una decisione errata. Nel procedere alla verifica dell'ipotesi di bilanciamento della moneta, si ricorre a una variabile casuale X. Tale variabile casuale X è una variabile aleatoria discreta con distribuzione binomiale B(20; 0,5), dove 20 indica il numero di lanci e 0,5 la probabilità che si verifichi l'evento "testa". Il risultato sperimentale si deve quindi confrontare con tale distribuzione: quanto è distante tale risultato dal valore medio della distribuzione B(20; 0,5)? Per rispondere alla domanda si deve individuare un valore caratteristico della distribuzione B(20; 0,5). Nel nostro caso tale valore caratteristico è il valore medio 20/2 = 10. Per valutare la distanza tra il valore sperimentale e quello atteso si valuta la probabilità di ottenere un valore sperimentale lontano dal valore medio di B(20; 0,5), ossìa nel caso che dal nostro esperimento risulti X=15 (15 teste dopo 20 lanci), si calcola P{|X-10|>=15-10} quindi P{X<=5 oppure X>=15}=0,041. Quindi, usando una moneta ben bilanciata, la probabilità di ottenere un numero di teste X >= 15 (oppure X <= 5) dopo 20 lanci è pari a 0,041 ossia al 4,1%. Giudicando bassa tale probabilità si rifiuterà l'ipotesi di bilanciamento della moneta in esame, accettando quindi il rischio del 4,1% di compiere un errore nel rifiutarla. Di solito, il valore della probabilità adottato per rifiutare l'ipotesi nulla è < 0,05. Tale valore è detto livello di significatività ed è definibile come segue: il livello di significatività sotto l'ipotesi nulla è la probabilità di cadere nella zona di rifiuto quando l'ipotesi nulla è vera. Tale livello di significatività si indica convenzionalmente con α. Il livello di significatività osservato α del test per il quale si rifiuterebbe l'ipotesi nulla è detto valore-p (p-value). Riprendendo l'esempio sopra riportato il valore-p è pari a 0,041. Adottando nell'esempio α = 0,05, si rifiuterà l'ipotesi se P{|X-10|>=x}<0,05. Tale condizione si raggiunge appunto se X<6 oppure X>14. Tale insieme di valori si definisce convenzionalmente come regione di rifiuto. Viceversa l'insieme { 6,7…14} si definisce regione di accettazione. In questo modo si è costruita una regola di comportamento per verificare l'ipotesi di bilanciamento della moneta. Tale regola definisce il test statistico. In termini tecnici l'ipotesi da verificare si chiama ipotesi nulla e si indica con H0, mentre l'ipotesi alternativa con H1. Nel caso della moneta, se p è la probabilità di ottenere testa in un lancio la verifica di ipotesi si traduce nel seguente sistema: 205 Test di verifica d'ipotesi Come già osservato, il modo di condurre un test statistico comporta un rischio di errore. Nella pratica statistica si individuano due tipi di errori: 1. rifiutare H0 quando è vera, errore di primo tipo (α) (o errore di prima specie); 2. accettare H0 quando è falsa, errore di secondo tipo (β) (o errore di seconda specie). Tornando all'esempio della moneta in cui la regione di accettazione è data dall'insieme di valori {6..14}, la probabilità di rifiutare H0 quando è vera è stato calcolato pari a 0,041.Tale probabilità rappresenta il rischio di incorrere in un errore di primo tipo e si indica con α. Per valutare la probabilità di un errore di secondo tipo è necessario specificare un valore di p in caso di verità di H1. Si supponga che p=0,80, in tal caso la distribuzione di X è una B(20;0,80) Con tale distribuzione di probabilità, l'errore di tipo 2 si calcola sommando le probabilità relative ai valori di X della zona di accettazione,ciò supponendo H1 vera. Si trova quindi che la probabilità cercata è pari a circa 0,20. Tale probabilità quantifica il rischio di incorrere nell'errore di tipo 2. e si indica convenzionalmente con β. La quantità 1-β si chiama potenza del test ed esprime quindi la capacità di un test statistico di riconoscere la falsità di H0 quando questa è effettivamente falsa. La potenza del test trova applicazione nella pratica statistica in fase di pianificazione di un esperimento. Voci correlate • Ipotesi nulla • Variabile casuale • Valore-p 206 Fonti e autori delle voci Fonti e autori delle voci Probabilità Fonte: http://it.wikipedia.org/w/index.php?oldid=53082436 Autori:: 213.21.174.xxx, Alberto da Calvairate, Alearr, Alec, Angela Bonora, Aplasia, Baroc, Blakwolf, Cesalpino, Codicorumus, Erasmo Barresi, F.chiodo, Fredericks, Gabriel96, Gacio, Gaetano licata, Gcappellotto, GiovanniS, Giovannigobbin, Gipiz, Giulio.Nic, Guidomac, Hashar, Ilario, Jalo, Joana, Johnlong, Leitfaden, Luisa, M7, Massimiliano Lincetto, Mau db, MenoUNO, Michele-sama, Mr buick, Phantomas, Piddu, Pracchia-78, Profste, Riccioli72, Shaka, Snowdog, StefaPorce, Suisui, Tener, Ticket 2010081310004741, Tomi, Toobaz, Twice25, Valitutti, Vituzzu, Ylebru, ^musaz, pppfree165-26-bz.aknet.it, 103 Modifiche anonime Spazio campionario Fonte: http://it.wikipedia.org/w/index.php?oldid=51269611 Autori:: Aubrey, Avesan, Baroc, Buggia, Cesalpino, Domenico De Felice, Gala.martin, Hal8999, Ilario, Leitfaden, Marcuscalabresus, Piddu, Profste, Sbisolo, Sergejpinka, SpiritoLibero, Tomi, Unmarco, 18 Modifiche anonime Teoria della probabilità Fonte: http://it.wikipedia.org/w/index.php?oldid=51236402 Autori:: Amanconi, Avesan, Baroc, Beewan1972, Cesalpino, Dr Zimbu, Frieda, Gala.martin, Joevinegar, Leitfaden, Lgentema, Lyell01, MaxDel, Microsoikos, Nihil, No2, Piddu, Piero Montesacro, Pil56, Rollopack, Sigifredobau, Tomi, Tonello, Ylebru, ^musaz, 19 Modifiche anonime Indipendenza stocastica Fonte: http://it.wikipedia.org/w/index.php?oldid=47903218 Autori:: 213.21.174.xxx, Arodichevski, Basilero, Buggia, Eumolpo, Flyingstar16, Gala.martin, Lacurus, Lgentema, Piddu, Pokipsy76, Pracchia-78, Simone, Tomi, 5 Modifiche anonime Teorema della probabilità composta Fonte: http://it.wikipedia.org/w/index.php?oldid=43716481 Autori:: 213.21.174.xxx, Amanconi, Arodichevski, Baroc, Buggia, Llorenzi, Piddu, Salvatore Ingala, Sandrobt, Simone, Tomi Teorema della probabilità assoluta Fonte: http://it.wikipedia.org/w/index.php?oldid=48590656 Autori:: 213.21.174.xxx, Amanconi, Avesan, Buggia, Piddu, Salvatore Ingala, Tomi, 16 Modifiche anonime Probabilità condizionata Fonte: http://it.wikipedia.org/w/index.php?oldid=52657429 Autori:: 213.21.174.xxx, Andrisano Antonio, Arodichevski, Barrfind, Buggia, Emptywords, Felisopus, Joevinegar, Leitfaden, Piddu, Pokipsy76, Simone, Suisui, Tomi, Tridim, 21 Modifiche anonime Teorema di Bayes Fonte: http://it.wikipedia.org/w/index.php?oldid=53077755 Autori:: 213.21.174.xxx, 213.21.175.xxx, Amanconi, Arodichevski, Ayanami Rei, CristianCantoro, Fradelpra, Gian-, Iskander, Joana, Leitfaden, Leonardis, LoStrangolatore, Lou Crazy, M7, Matteo.Bertini, Megalexandros, Michele-sama, Pequod76, Piddu, Qniemiec, Salvatore Ingala, Tomi, Tommaso Ferrara, 30 Modifiche anonime Distribuzione discreta Fonte: http://it.wikipedia.org/w/index.php?oldid=50208293 Autori:: 213.21.175.xxx, Avesan, Barrfind, Bedo2991, Joana, Lacurus, Lenore, Piddu, Tomi, pppfree166-112-bz.aknet.it, 15 Modifiche anonime Distribuzione discreta uniforme Fonte: http://it.wikipedia.org/w/index.php?oldid=51266176 Autori:: Barrfind, Buggia, Delas, Drakend, Joana, MM, Marcuscalabresus, Michele-sama, No2, Piddu, Sandrobt, Simone, Snowdog, Tomi, Zmlsf2b, pppfree165-15-bz.aknet.it, pppfree166-112-bz.aknet.it, 8 Modifiche anonime Distribuzione di Bernoulli Fonte: http://it.wikipedia.org/w/index.php?oldid=52557638 Autori:: Andrisano Antonio, Barrfind, Drakend, Gvittucci, Joana, Marcuscalabresus, Tomi, Utente, pppfree165-204-bz.aknet.it, pppfree165-93-bz.aknet.it, pppfree166-235-bz.aknet.it, 13 Modifiche anonime Processo di Bernoulli Fonte: http://it.wikipedia.org/w/index.php?oldid=48507770 Autori:: Andrisano Antonio, Avemundi, Eumolpo, No2, 4 Modifiche anonime Distribuzione binomiale Fonte: http://it.wikipedia.org/w/index.php?oldid=51266077 Autori:: 213.21.175.xxx, Alez, Barrfind, Berto, CarloV, Codicorumus, Eumolpo, Freddyballo, Gwilbor, Hashar, Iskander, Joana, L'altro giocoliere, Lacurus, Marcuscalabresus, Massimiliano Lincetto, Michele-sama, Onix135, Paopis, Phantomas, Sanremofilo, Simone Scanzoni, Suisui, Tomi, Utente, pppfree166-235-bz.aknet.it, 32 Modifiche anonime Distribuzione geometrica Fonte: http://it.wikipedia.org/w/index.php?oldid=52674445 Autori:: Adamanttt, Baroc, Barrfind, Blakwolf, Bluled, DanieleSciolla, ELPiazza, Ersonny, Frigotoni, Gokhan, Hashar, Jmc.88, Joana, Lprmrz, Massimiliano Panu, Michele-sama, Onix135, Phantomas, Piddu, Sir John, Tomi, Toobaz, Utente, WK, Yatagan, pppfree165-204-bz.aknet.it, pppfree166-112-bz.aknet.it, 41 Modifiche anonime Distribuzione di Poisson Fonte: http://it.wikipedia.org/w/index.php?oldid=51266155 Autori:: AMenteLibera, Alez, Arodichevski, Baroc, Barrfind, Broc, Dproduzioni, Fain182, Hashar, Hce, Joana, Michele-sama, Moroboshi, Nickanc, Pokipsy76, Sadysamar, Salsoul92, Sandrobt, Sergejpinka, Suisui, Tomi, Utente, host14-135.pool80117.interbusiness.it, pppfree166-112-bz.aknet.it, pppfree166-167-bz.seq.it, 58 Modifiche anonime Distribuzione di Pascal Fonte: http://it.wikipedia.org/w/index.php?oldid=51266144 Autori:: Barrfind, Caulfield, Dr Zimbu, Herstory, Joana, Onix135, Piddu, Salvatore Ingala, Tkt2008123110019475, Tomi, pppfree165-204-bz.aknet.it, pppfree166-63-bz.aknet.it, 10 Modifiche anonime Distribuzione continua Fonte: http://it.wikipedia.org/w/index.php?oldid=53023514 Autori:: Avesan, Buggia, Dega180, Eumolpo, Gpmat, Joana, Lacurus, Lenore, Piddu, Sandrobt, Tomi, pppfree165-118-bz.seq.it, pppfree166-167-bz.seq.it, 13 Modifiche anonime Funzione di ripartizione Fonte: http://it.wikipedia.org/w/index.php?oldid=51267116 Autori:: 213.21.175.xxx, Amanconi, Avesan, Baroc, Buggia, Eumolpo, Fredericks, Jalo, Joevinegar, Lacurus, Larry Yuma, Leitfaden, Leonardis, Leoplct, Llorenzi, Mark91, Piddu, Quellogrosso, Simone, The Ouroboros, Tomi, Toobaz, UP, Zlafeg, 35 Modifiche anonime Funzione di densità di probabilità Fonte: http://it.wikipedia.org/w/index.php?oldid=49266022 Autori:: Alec, Avesan, Buggia, HyperText, Ilario, Krdan, Leonardis, Piddu, Quanto, Retaggio, Simo82, Tino 032, Tomi, UP, W.visconti, Wiso, ^musaz, 7 Modifiche anonime Variabile casuale Fonte: http://it.wikipedia.org/w/index.php?oldid=53095744 Autori:: 213.21.175.xxx, Agosteeno, Avesan, Buggia, Codicorumus, Colom, Gala.martin, Gokhan, Grigio60, Guido Magnano, Ik1tzo, Jacop, Joana, Joevinegar, Kazza, Kiwi, Lacurus, Leonardis, Luca Antonelli, Megalexandros, Numbo3, Patafisik, Piddu, Riccioli72, Sandrobt, Sbisolo, Suisui, Tomi, Utente, W4r3x, ^musaz, pppfree165-204-bz.aknet.it, 51 Modifiche anonime Variabili dipendenti e indipendenti Fonte: http://it.wikipedia.org/w/index.php?oldid=39429888 Autori:: Arodichevski, Ary29, Barrfind, Lord Hidelan, Mau db, Simo82, 4 Modifiche anonime Valore atteso Fonte: http://it.wikipedia.org/w/index.php?oldid=52129266 Autori:: Amanconi, Antonio78, Bassabros, Buggia, Codicorumus, Dr Zimbu, Fire90, Gala.martin, Giacomo.lucchese, Gim²y, IlBeso, Joevinegar, Lacurus, Luca Antonelli, Onix135, Paul Gascoigne, Phantomas, Piddu, Pokipsy76, Salvo da Palermo, Seics, Soprano71, Stecrimi, Tomi, Toobaz, UP, Utente, Vu Duc Thang, pppfree165-15-bz.aknet.it, 38 Modifiche anonime Varianza Fonte: http://it.wikipedia.org/w/index.php?oldid=52648811 Autori:: Adert, Alexander Luthor, Amanconi, Arodichevski, Barrfind, Daniele Pugliesi, Epoc, Ercaran, Fabriziogambino, Furriadroxiu, Gabriele85, Grigio60, Gvittucci, Leonardis, Lord Hidelan, Massimiliano Lincetto, Nico86roma, Pacini409, Panairjdde, Paolo Sebastiano Valvo, Paradoxengine, Phantomas, Red Power, Riccioli72, Sandrobt, Seics, Sergejpinka, Stemby, Suisui, Tomi, 71 Modifiche anonime Legge della varianza totale Fonte: http://it.wikipedia.org/w/index.php?oldid=53137806 Autori:: Amanconi, Gabriele85, Gvittucci, Ylebru, 5 Modifiche anonime Covarianza Fonte: http://it.wikipedia.org/w/index.php?oldid=52219900 Autori:: Adert, Amanconi, AnjaManix, Arodichevski, Barrfind, Bella Situazione, Biopresto, Cog, Gabriele85, Gianluigi, Herdakat, Llorenzi, Martin Mystère, Mistercaste, PersOnLine, Piddu, Template namespace initialisation script, Tomi, Utente, Wiso, 21 Modifiche anonime Deviazione standard Fonte: http://it.wikipedia.org/w/index.php?oldid=53061279 Autori:: 1000voi, 213.21.175.xxx, Adert, Alfio, Alkalin, Arodichevski, Basilicofresco, Blaisorblade, Blakwolf, DanGarb, Dennis, Duccio.vigolo, EffeX2, Gabriele85, Gemini1980, Hashar, Kamina, Llorenzi, Lord Hidelan, Mark91, Massimiliano Lincetto, Maxpic69, Panairjdde, Pandit, Paolo Sebastiano Valvo, Pattarello, Piddu, Pressman2009, Rael, Semibradi, SimoneMLK, Simonefrassanito, Snowdog, SolePensoso, Stemby, Suisui, Template namespace initialisation script, Tomi, Tommaso Ferrara, Twice25, host226-101.pool212171.interbusiness.it, 71 Modifiche anonime Media (statistica) Fonte: http://it.wikipedia.org/w/index.php?oldid=52837883 Autori:: .snoopy., 213.21.175.xxx, 51449e5f.cable.wanadoo.nl, Adert, Adfc, Aldur, Alec, Alpt, Amanconi, AnjaManix, Arodichevski, Ary29, Ask21, Avesan, Berto, Calabash, Civvì, Cogna93, DanGarb, Daniele Pugliesi, Djdomix, DoppioM, Elborgo, F l a n k e r, Fox vincy, Frieda, Ft1, Gabriele85, Gac, Ggg, Guido Magnano, Guidomac, IlCapo, Iron Bishop, Isil, Kal-El, Lacurus, Lord Hidelan, Luca.lombini, Lusum, M7, Madaki, Mark91, Massimiliano Lincetto, Maxsimo6771, Melos, Michele-sama, MrOrange, Nafutesfera, Ngshya, No2, Oks, Phantomas, Piddu, Pracchia-78, Pressman2009, Rael, Sbisolo, Sergejpinka, Snowdog, Taueres, Ticket 2010081310004741, Tino 032, Tomi, Twice25, 201 Modifiche anonime 207 Fonti e autori delle voci Distribuzione normale Fonte: http://it.wikipedia.org/w/index.php?oldid=53010270 Autori:: .mau., Alberto da Calvairate, Amanconi, Blakwolf, Bongalone, Ceccorossi, Cisco79, Elninopanza, Ercaran, Gionnico, Giuliodomus, Hashar, Joana, L'altro giocoliere, Lp, Lumage, Malcom1976, MapiVanPelt, Marcodev, Merovingian, Phantomas, Piddu, Pracchia-78, S141739, Sandrobt, Suisui, Tank00, Tino 032, Tomi, Utente, Veneziano, ^musaz, pppfree165-15-bz.aknet.it, pppfree165-204-bz.aknet.it, pppfree165-53-bz.aknet.it, pppfree165-65-bz.aknet.it, 65 Modifiche anonime Funzione di ripartizione della variabile casuale normale Fonte: http://it.wikipedia.org/w/index.php?oldid=51948191 Autori:: Avesan, Basilicofresco, Brownout, Diritto, EffeX2, Joana, Kormoran, Stefano-c, Tomi, Utente, pppfree165-204-bz.aknet.it, pppfree166-167-bz.seq.it, 4 Modifiche anonime Distribuzione t di Student Fonte: http://it.wikipedia.org/w/index.php?oldid=52250411 Autori:: Angelorenzi, Barrfind, Buggia, Darth Kule, Ercaran, Eumolpo, Frieda, Gabriele Nunzio Tornetta, Joana, Lord Hidelan, Martin Mystère, Mauro742, Nyrk, Omino di carta, Phantomas, Piddu, Sandrobt, Stefanopiep, Tomi, Tommaso Ferrara, Utente, Utonto, pppfree165-191-bz.aknet.it, pppfree165-204-bz.aknet.it, 81 Modifiche anonime Distribuzione chi quadrato Fonte: http://it.wikipedia.org/w/index.php?oldid=52219768 Autori:: Barrfind, Elauksap, Eumolpo, FrancescoT, Gvittucci, Hashar, Hellis, Joana, Larry87, Leonardis, Llorenzi, Marcol-it, Nase, Suisui, Tomi, Tommaso Ferrara, Utente, pppfree165-204-bz.aknet.it, pppfree165-26-bz.aknet.it, pppfree166-31-bz.seq.it, pppfree166-44-bz.aknet.it, pppfree166-63-bz.aknet.it, 35 Modifiche anonime Distribuzione di Fisher-Snedecor Fonte: http://it.wikipedia.org/w/index.php?oldid=51266126 Autori:: Aljosha89, Arodichevski, Barrfind, Buggia, Califasuseso, Dega180, Eumolpo, Fornaeffe, Fstefani, Guidomac, Joana, Lord Hidelan, Martin Mystère, Nase, SCDBob, Sandrobt, Sanremofilo, Snowdog, Suisui, Tomi, pppfree165-204-bz.aknet.it, pppfree166-168-bz.aknet.it, 18 Modifiche anonime Disuguaglianza di Čebyšëv Fonte: http://it.wikipedia.org/w/index.php?oldid=52219115 Autori:: 213.21.175.xxx, AnyFile, Arodichevski, Beewan1972, Blink89, Buggia, Dr Zimbu, Gvittucci, Iskander, Leonardis, Marcuscalabresus, Piddu, Salvatore Ingala, Sergejpinka, Suisui, Tomi, Uswzb, WinstonSmith, pppfree165-93-bz.aknet.it, 7 Modifiche anonime Disuguaglianza di Markov Fonte: http://it.wikipedia.org/w/index.php?oldid=52225050 Autori:: Amanconi, Avesan, Blackcat, Dr Zimbu, Leonardo25, Raffaelemeroni, Salvatore Ingala, Sandrobt, Tomi, 4 Modifiche anonime Legge dei grandi numeri Fonte: http://it.wikipedia.org/w/index.php?oldid=49534024 Autori:: Alec, Alez, Amanconi, Amarvudol, Andy2718, Arodichevski, AttoRenato, Baroc, Broc, Codicorumus, Elwood, Erud, FabioResta, Hellis, Joana, Kamina, Kormoran, Lacurus, LapoLuchini, Laurentius, M7, Piddu, Pracchia-78, Remulazz, Retaggio, Salvatore Ingala, Sergejpinka, Simone, Tomi, Wago, Wiso, pppfree165-93-bz.aknet.it, 34 Modifiche anonime Teoremi centrali del limite Fonte: http://it.wikipedia.org/w/index.php?oldid=51475421 Autori:: Arodichevski, Emanuele.paolini, Francesco Spadaro, Gabriele85, Giacomo.lucchese, Guagno333, Pokipsy76, Sirabder87, Sumail, Tank00, Tino 032, 31 Modifiche anonime Processo markoviano Fonte: http://it.wikipedia.org/w/index.php?oldid=52774969 Autori:: Alez, Arodichevski, Banjo, Berto, Blackcat, EffeX2, FrAnCiS, MarcoBoretto, Marcoesiste, MattLanf, Patafisik, Piddu, Qualc1, Raffaelemeroni, Romanm, Sandrobt, Sanremofilo, Simbo1980, Simone, Tomi, Tommaso Ferrara, ^musaz, pppfree165-204-bz.aknet.it, 33 Modifiche anonime Calcolo combinatorio Fonte: http://it.wikipedia.org/w/index.php?oldid=52677949 Autori:: Abbax, Airon90, Alberto da Calvairate, Aleb, Bizio, Deltasun, Fale, Frazzone, Frieda, Frigotoni, Gim²y, Guido Maccioni, Guido Magnano, Hobione, Jalo, Kamina, Labba94, Leitfaden, Mikimouse3, Nick, Parerga, Phantomas, Pracchia-78, Qualc1, Ripepette, Shivanarayana, Snowdog, Tomi, Toobaz, Unriccio, Ylebru, 115 Modifiche anonime Coefficiente binomiale Fonte: http://it.wikipedia.org/w/index.php?oldid=47882038 Autori:: 213.21.175.xxx, Alberto da Calvairate, BRussell, Brownout, C.piovesan, Cesalpino, Domenico De Felice, F l a n k e r, Gabriele Nunzio Tornetta, Iskander, Joana, Kar.ma, Leitfaden, Paopis, Salvatore Ingala, Shankao, SkZ, Tomi, Utente, Verdedinotte, Ylebru, Zetti ~, 13 Modifiche anonime Teorema binomiale Fonte: http://it.wikipedia.org/w/index.php?oldid=52948168 Autori:: Alberto da Calvairate, Alu94, Basilero, Buggia, Cesalpino, Fradelpra, Giulio.orru, Giò² !, Megalexandros, No2, Paopis, Piddu, Pokipsy76, Salvatore Ingala, Sandrobt, Startrek Leonardo, Sumail, Tommaso Ferrara, Ylebru, 49 Modifiche anonime Coefficiente multinomiale Fonte: http://it.wikipedia.org/w/index.php?oldid=51034622 Autori:: Alez, Joana, Leitfaden, MattLanf, No2, Tomi, Utonto, Ylebru, 12 Modifiche anonime Problema di Monty Hall Fonte: http://it.wikipedia.org/w/index.php?oldid=52911489 Autori:: .mau., Airon90, Amanconi, Ancelli, Aplasia, Assianir, Avesan, B3t, Baroc, Camera 9, Carlo.milanesi, CavalloRazzo, Daniele Pugliesi, Diego Petrucci, Doctor Dodge, Dr Zimbu, Etienne, Eumolpo, EvilPrince, Fradelpra, Gvittucci, Hellis, Hires, Holdme, Il Teu, Incola, Jakbest, Joana, Kasper2006, LaseriumFloyd, LoStrangolatore, Luca Antonelli, Lumage, Marco.parrilla, Massimiliano Panu, Matrix87, Metallo, Michele-sama, Mp3.7, Mpitt, Nickanc, Noieraieri, Phantomas, Piddu, Salvo da Palermo, Sandrobt, Sesquipedale, Snowdog, Square87, Stark79, Superzen, The Kraff, Tia solzago, Ticket 2010081310004741, Tomi, Toobaz, Trixt, Vituzzu, Ylebru, 108 Modifiche anonime Paradosso delle tre carte Fonte: http://it.wikipedia.org/w/index.php?oldid=45400576 Autori:: Andpagl, Andrea.gf, Baroc, Basilero, Cloj, F l a n k e r, Godaime, MapiVanPelt, Michele-sama, Mp3.7, Pequod76, PersOnLine, Piddu, Tomi, Toobaz, 14 Modifiche anonime Paradosso dei due bambini Fonte: http://it.wikipedia.org/w/index.php?oldid=52448698 Autori:: Cloj, Garibaldino, Hellis, LucAndrea, Lucbie, Lumage, Merovingian, Nrykko, Piddu, Sandrobt, Tomi, Toobaz, 16 Modifiche anonime Paradosso del compleanno Fonte: http://it.wikipedia.org/w/index.php?oldid=52666608 Autori:: *Raphael*, .mau., Abisys, Alez, Blue star 19, Cenncroithi, Colom, Fafabifiofo, Gi87, Guam, Hellis, Leo72, Luciodem, Marius, Mauron, Michele-sama, Pacionet, Piddu, Poeta60, Rael, Sbisolo, Simo ubuntu, Tomi, Wanblee, Wikiradar, Wolland, Yoruno, 17 Modifiche anonime Blackjack Fonte: http://it.wikipedia.org/w/index.php?oldid=53157658 Autori:: 2001:1418:100:1B5:0:0:0:2, AnyFile, Ariel, Astrokey44, AttoRenato, B3t, Bart88, Casinoonline24, Crepuscolo1910, Crys0000, DaniDF1995, Dega180, Elcerqua, Eumolpo, Eustace Bagge, F l a n k e r, Fale, Freude.schoner.gotterfunken, Gacio, Gce, Giovannigobbin, Giudice frump, Goemon, Guidomac, Gvf, Helios, Kallima, Kiky&glo, Kill off, Koji, Laurentius, LikeLifer, Lorenzo RB, Lp, Lucas, Luisa, M7, MapiVanPelt, Marcingietorigie, Marcok, Mau db, Melia77, Midnight bird, Paginazero, Paulie3691, Piddu, Pino alpino, Pitroipa10, Rael, Retaggio, Rinina25, Rojelio, Shaka, Shivanarayana, Shout, Simon70, Snowdog, Tadino, Tommaso Ferrara, Toobaz, Twice25, Umberto1969, Veneziano, Vipera, Vu Duc Thang, Wappi76, Wikirock, Znick85, 130 Modifiche anonime Poker Fonte: http://it.wikipedia.org/w/index.php?oldid=52629679 Autori:: .anaconda, Abbabash, Alfio, Ambriovunque, AmonSûl, Andrea.epifani, Antoniomy, Arahant, Archenzo, Ask21, Assoquadri, Barbaking, CDS33, Calchi, CarloV, Chlorpromazine, Cruccone, Dabao, Danielemarata, Davide21, Delasale, Delfort, Dino246, DostoHouskij, Drugonot, Drumstian, Elisabetta Sanguineti, Elwood, Eumolpo, F l a n k e r, Fabiov, Fale, Fiazzo, Filnik, FrancescaZanutto, Frieda, Fuxpio, Gacio, Gbnogkfs, Ggonnell, Gianfranco, Gliu, Goemon, Goliardico, Guidomac, Gvf, Hamed, Hashar, Hauteville, Helios, Hellis, Hrundi V. Bakshi, Ignlig, Invision2.0, Iron Bishop, Jacopo, Joana, KS, Kibira, Klaudio, L736E, Larry Yuma, LikeLifer, Lilja, Lp, Lucas, Luccaro, M7, MM, Madaki, Manusha, MapiVanPelt, Marcingietorigie, Marco Meloni, Massimiliano Bultrini, Mastazi, Mau db, Mess, Micione, MikyT, Mirko69, Moongateclimber, Moroboshi, NadiaGrace, Nalegato, Nick1915, Olando, Oni link, Ons, Osmosis, POKERFACTOR, PersOnLine, Phantomas, Pino alpino, Poker4passion, Pomo 00, Quaro75, Rafaele liraz, Ranma25783, Rdocb, Reddstain, Riprova, Rojelio, Rollopack, Sailko, Sal.acu, Sesquipedale, Shaka, Simone, Snowdog, Soblue, Squattaturi, StefanoBZ, Stefanopro, Tafkaf, Template namespace initialisation script, ThG, Ticket 2010081310004741, TierrayLibertad, Triquetra, Tund3r, Twice25, Ughetto23, Ugopanco, Vu Duc Thang, Wikirock, Willyminor, Ylebru, 293 Modifiche anonime Roulette Fonte: http://it.wikipedia.org/w/index.php?oldid=53129971 Autori:: Aplasia, Ares, Ary29, Avesan, Barbaking, Bart88, Bartleby08, Barz8, BohemianRhapsody, Buggia, Casinoonline24, Cialz, Cinzia1211, Claude85, Conte di Sarre, Delfort, Dino246, Domenico De Felice, Gacio, Gliu, Kranjo, L736E, LikeLifer, Lucas, M7, MaiDireChiara, Mala, Mark91, Maugiannoni, Metralla, No2, Personne1212, Phantomas, Pozivo, Ranma25783, Salento81, Shivanarayana, Simon70, SimoneMLK, Simonmagic, Ticket 2010081310004741, Toobaz, Torsolo, Wikirock, 85 Modifiche anonime Continuità assoluta Fonte: http://it.wikipedia.org/w/index.php?oldid=49416714 Autori:: AMenteLibera, Alberto da Calvairate, BKH77, Baroc, Buggia, Gala.martin, Piddu, ^musaz, 8 Modifiche anonime Integrale Fonte: http://it.wikipedia.org/w/index.php?oldid=52683810 Autori:: .mau., Airon90, Albano Serena, Alberto da Calvairate, Alemi82, Alessandro De Laurentiis, Alfio, Alkalin, Ancelli, AnyFile, Asymmetric, Automatik, Baroc, Basilero, Blakwolf, Brazzo, Cesalpino, Cisco79, Daniele, Dissonance, Djdomix, Djechelon, Dmharvey, Domenico De Felice, Dr Zimbu, Eginardo, Elwood, Eumolpa, Eumolpo, Fatzeus, Fioravante Patrone, FrAnCiS, Franz Liszt, Gco, Giorgio Nicoletti, Gliu, Goemon, Guarracino, Guidomac, Hashar, Hellis, Henrykus, IlCapo, Illinois, Kamina, Laurentius, Lellats, Leonardis, Lo Skana, Lodo g, Lord Hidelan, Luca Antonelli, Lulo, MacLucky, Marce79, Marcol-it, Massimiliano Panu, Mastersap, Matsoftware, Mega-X, Naufr4g0, No2, Noieraieri, Nsgambaro, Number 21, Oracolante, Paopis, Penaz, PersOnLine, Phantomas, Piddu, Piero, Pokipsy76, Pracchia-78, Riccardocc2, Salvatore Ingala, Sancio.pancia, Shivanarayana, Stefano Bit, Stepho, Suisui, Suturn, Tertore, Ticket 2010081310004741, Tomi, Toobaz, V.alessandro, Varogami, Viames, Vituzzu, Voldemort87, W.visconti, Wiso, Ylebru, ^musaz, 235 Modifiche anonime Convoluzione Fonte: http://it.wikipedia.org/w/index.php?oldid=51265459 Autori:: .anaconda, Alez, Baroc, Buggia, Claude, DanGarb, Dexterp37, Djechelon, EffeX2, Esculapio, Franco3450, Jok3r, Lion-hearted85, Lulo, Madaki, Marius, Piddu, Pil56, Pokipsy76, Pracchia-78, Snowdog, Summerwind, Svante, Ulisse0, Wiso, Ylebru, ^musaz, 34 Modifiche anonime 208 Fonti e autori delle voci Sigma-algebra Fonte: http://it.wikipedia.org/w/index.php?oldid=50119107 Autori:: Alec, Claude85, Dariuz borghigiano, Gala.martin, Harmless, Helios, Hellis, Moroboshi, No2, Piddu, Pracchia-78, SpiritoLibero, Wiso, Ylebru, ^musaz, 23 Modifiche anonime Algoritmo di Metropolis-Hastings Fonte: http://it.wikipedia.org/w/index.php?oldid=45372804 Autori:: Arodichevski, Avesan, Edgardof, Eed3si9n, Eginardo, Marcoesiste, Piddu, Zmlsf2b Metodo Monte Carlo Fonte: http://it.wikipedia.org/w/index.php?oldid=54003565 Autori:: .mau., A.Cython, Albitex, Alexav8, Antonell, Arodichevski, Banus, Ciccio7, Cieffegi, Cisco79, Cruccone, Daniele Pugliesi, Edo82, Frieda, Ggg, Hellis, Link89, Louisbeta, Marius, Maurizio.Cattaneo, Napo Orso Capo, No2, Orso della campagna, Phantomas, Ramac, Sailko, Sandinista, Senpai, Skawise, Svante, Tia solzago, Tomi, Twice25, Utente, Vituzzu, Zmlsf2b, 58 Modifiche anonime Statistica Fonte: http://it.wikipedia.org/w/index.php?oldid=54144998 Autori:: .anaconda, .snoopy., 213.21.174.xxx, 213.21.175.xxx, Adert, Alberto di Cristina, Aleksander Sestak, Alessio Ganci, Alfio, Amanconi, Anguilano.f, Antonio Calossi, Atti, Baroc, Blakwolf, Bluemask, Broc, Brownout, Carlo.milanesi, Cluster.One, CristianCantoro, Daniele Pugliesi, Diuturno, Dr Zimbu, Elisabetta, Eumolpa, Eumolpo, Fale, Flooding, Francescadellaratta, Franz Liszt, Frieda, Frigotoni, Gabriele85, Gionnico, Giorces, Giovannigobbin, Giurista, Giuseppe De Marte, Guidomac, Ittodiug, Jabbba, Jose Antonio, Leitfaden, Lord Hidelan, Luca Visentin, Luisa, M7, MaEr, MarcoBiffino, MarcoPotok, Melkor II, Melos, Metodio, Michele-sama, Micione, Mosca, Msebast, No2, Numbo3, Paginazero, Pap3rinik, Pequod76, Phantomas, PieroR, Pracchia-78, Pressman2009, Quaro75, Restu20, Rl89, Salvatore Ingala, Senpai, Sergejpinka, StefanoMP, Suisui, Supernino, Tamme, Template namespace initialisation script, Ticket 2010081310004741, Tomi, Torredibabele, Uswzb, Viguarda, Vitomar, XScratchAx, Ylebru, ^musaz, 149 Modifiche anonime Inferenza statistica Fonte: http://it.wikipedia.org/w/index.php?oldid=48983948 Autori:: Alkalin, Amanconi, Arodichevski, Ary29, Ask21, Civvì, EffeX2, Gugga, Joana, Lacurus, Lord Hidelan, Luisa, Montreal, Patafisik, Sarastro, Sbisolo, Snowdog, Soprano71, Tomi, Toobaz, 今 古 庸 龍, 30 Modifiche anonime Campionamento statistico Fonte: http://it.wikipedia.org/w/index.php?oldid=50353762 Autori:: Antonio.Gulino, Arodichevski, Avemundi, Avesan, Blackcat, Calgaco, Cayman88, Civvì, Cruccone, Delfort, EffeX2, Eumolpo, Gabriele85, Gaux, Giangagliardi, Joana, Mizardellorsa, Nase, Sergejpinka, Tomi, Utente, Valepert, Veneziano, Vipera, pppfree166-235-bz.aknet.it, 10 Modifiche anonime Box-plot Fonte: http://it.wikipedia.org/w/index.php?oldid=53994773 Autori:: 213.21.175.xxx, Adert, Astroph, Avesan, Fredericks, Lacurus, Lukius, No2, Phantomas, Tomi, Utente, Zmlsf2b, 17 Modifiche anonime Istogramma Fonte: http://it.wikipedia.org/w/index.php?oldid=53893795 Autori:: Adert, Antonio Caruso, Archenzo, Arodichevski, Avesan, Ayexeyen, B3t, Biopresto, Daniele Pugliesi, EffeX2, Emanuele piga, Francesco R., Frigotoni, Gehadad, GiacomoV, Lacurus, Llorenzi, Luke94, MaEr, Marcuscalabresus, Moon lights, MoonBeam77, Mox83, No2, RaminusFalcon, Sbisolo, StefanoMP, Utente, 28 Modifiche anonime Quantile Fonte: http://it.wikipedia.org/w/index.php?oldid=53219147 Autori:: 213.21.175.xxx, Actarux, Ale Cresta, Alfio, Arodichevski, Astroph, Avesan, Barrfind, Buggia, Christihan, Crillion, Dandrix89, Dirrival, Movses, Patafisik, Pedro Felipe, Sesquipedale, Stefano Nesti, Template namespace initialisation script, Tintin the reporter, Tomi, Twice25, Utente, 12 Modifiche anonime Quartile Fonte: http://it.wikipedia.org/w/index.php?oldid=53115175 Autori:: 213.21.175.xxx, Actarux, Adert, Astroph, Avesan, Dirrival, Patafisik, Phantomas, Pipes86, Simone, Tomi, Veneziano, pppfree166-63-bz.aknet.it, 10 Modifiche anonime Indicatore statistico Fonte: http://it.wikipedia.org/w/index.php?oldid=51504358 Autori:: 213.21.175.xxx, Arodichevski, Astroph, Avesan, Basilicofresco, Giorces, Robertotex, Sbisolo, Tomi, Utente, 12 Modifiche anonime Indice di posizione Fonte: http://it.wikipedia.org/w/index.php?oldid=49463505 Autori:: 213.21.175.xxx, Astroph, Avesan, ChemicalBit, Francesco R., Gig, Simone, TierrayLibertad, Tomi, 4 Modifiche anonime Intervallo di confidenza Fonte: http://it.wikipedia.org/w/index.php?oldid=52221976 Autori:: Arodichevski, EffeX2, Francesco R., Gabriele85, Lord Hidelan, Walter89, 16 Modifiche anonime Ipotesi nulla Fonte: http://it.wikipedia.org/w/index.php?oldid=54347157 Autori:: Alec, Amaralaw, Arodichevski, Ary29, Cisco79, Gabriele85, GiaGar, Lord Hidelan, MaxDel, Sergejpinka, StWA, Tomi, Tri Cetiri Sad, Vigevanese, pppfree166-31-bz.seq.it, 6 Modifiche anonime Test di verifica d'ipotesi Fonte: http://it.wikipedia.org/w/index.php?oldid=54346911 Autori:: Andyspiros, Avesan, Biopresto, Bultro, Dariolollissimo, Gabriele85, Gvnn, Lacurus, Lari, Lord Hidelan, Ocia87, Philoz, Rupertsciamenna, Sbisolo, Sergejpinka, Snowdog, Tomi, Tommaso Ferrara, Toobaz, Utente, Veneziano, Vigevanese, 54 Modifiche anonime 209 Fonti, licenze e autori delle immagini Fonti, licenze e autori delle immagini File:6sided dice.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:6sided_dice.jpg Licenza: Creative Commons Attribution-Sharealike 3.0 Autori:: Diacritica Immagine:Commons-logo.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Commons-logo.svg Licenza: logo Autori:: SVG version was created by User:Grunt and cleaned up by 3247, based on the earlier PNG version, created by Reidab. File:Bayes' Theorem 3Dv2.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Bayes'_Theorem_3Dv2.png Licenza: Creative Commons Zero Autori:: Qniemiec Image:DUniform_distribution_PDF.png Fonte: http://it.wikipedia.org/w/index.php?title=File:DUniform_distribution_PDF.png Licenza: GNU Free Documentation License Autori:: EugeneZelenko, PAR, WikipediaMaster Image:DUniform_distribution_CDF.png Fonte: http://it.wikipedia.org/w/index.php?title=File:DUniform_distribution_CDF.png Licenza: GNU Free Documentation License Autori:: EugeneZelenko, PAR, WikipediaMaster Image:Binomial distribution pmf.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Binomial_distribution_pmf.svg Licenza: Public Domain Autori:: Tayste Image:Binomial distribution cdf.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Binomial_distribution_cdf.svg Licenza: Public Domain Autori:: Tayste Image:Geometricpdf.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Geometricpdf.jpg Licenza: GNU Free Documentation License Autori:: Joxemai, Magog the Ogre, Olaf Image:Geometriccdf.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Geometriccdf.jpg Licenza: GNU Free Documentation License Autori:: Original uploader was AdamSmithee at en.wikipedia File:Poisson pmf.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Poisson_pmf.svg Licenza: Creative Commons Attribution 3.0 Autori:: Skbkekas File:Poisson cdf.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Poisson_cdf.svg Licenza: Creative Commons Attribution 3.0 Autori:: Skbkekas Image:Negbinomial.gif Fonte: http://it.wikipedia.org/w/index.php?title=File:Negbinomial.gif Licenza: Public Domain Autori:: Stpasha Immagine:Grafico_v.c.uniforme.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Grafico_v.c.uniforme.png Licenza: GNU Free Documentation License Autori:: Archeologo, Lacurus, Tomi, 1 Modifiche anonime Immagine:Grafico_v.c.Gaussiana.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Grafico_v.c.Gaussiana.png Licenza: GNU Free Documentation License Autori:: Alfio, Frack, Tomi File:Standard deviation illustration.gif Fonte: http://it.wikipedia.org/w/index.php?title=File:Standard_deviation_illustration.gif Licenza: GNU Free Documentation License Autori:: Forlornturtle File:Moda.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Moda.jpg Licenza: Public domain Autori:: Settenoteinnero File:Normal distribution pdf.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Normal_distribution_pdf.png Licenza: GNU General Public License Autori:: Ardonik, Gerbrant, Grendelkhan, Inductiveload, Juiced lemon, MarkSweep, Wikiwide, 10 Modifiche anonime File:Normal distribution cdf.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Normal_distribution_cdf.png Licenza: GNU General Public License Autori:: Gerbrant, Inductiveload, Juiced lemon, MarkSweep, Waldir Immagine:Grafico v.c.Gaussiana.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Grafico_v.c.Gaussiana.png Licenza: GNU Free Documentation License Autori:: Alfio, Frack, Tomi File:student_t_pdf.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Student_t_pdf.svg Licenza: Creative Commons Attribution 3.0 Autori:: Skbkekas File:student_t_cdf.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Student_t_cdf.svg Licenza: Creative Commons Attribution 3.0 Autori:: Skbkekas File:chi-square distributionPDF.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Chi-square_distributionPDF.png Licenza: Public Domain Autori:: EugeneZelenko, It Is Me Here, PAR, WikipediaMaster File:chi-square distributionCDF.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Chi-square_distributionCDF.png Licenza: Public Domain Autori:: EugeneZelenko, PAR, WikipediaMaster Image:F_distributionPDF.png Fonte: http://it.wikipedia.org/w/index.php?title=File:F_distributionPDF.png Licenza: GNU Free Documentation License Autori:: en:User:Pdbailey Image:F_distributionCDF.png Fonte: http://it.wikipedia.org/w/index.php?title=File:F_distributionCDF.png Licenza: GNU Free Documentation License Autori:: en:User:Pdbailey File:Paradosso di Monty Hall.gif Fonte: http://it.wikipedia.org/w/index.php?title=File:Paradosso_di_Monty_Hall.gif Licenza: Public domain Autori:: Iraiscoming223 File:Monty open door.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Monty_open_door.svg Licenza: Public Domain Autori:: Cepheus File:Monty open door chances.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Monty_open_door_chances.svg Licenza: Public Domain Autori:: Cepheus File:Birthday Paradox.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Birthday_Paradox.svg Licenza: Creative Commons Attribution-Sharealike 3.0 Autori:: Rajkiran g File:Blackjack game example.JPG Fonte: http://it.wikipedia.org/w/index.php?title=File:Blackjack_game_example.JPG Licenza: GNU Free Documentation License Autori:: Dice yo11, Roke, Tintazul, Yonatanh, 9 Modifiche anonime File:DavidSklansky1979.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:DavidSklansky1979.jpg Licenza: sconosciuto Autori:: Dead man’s hand, Deerstop File:Doyle Brunson.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Doyle_Brunson.jpg Licenza: Creative Commons Attribution-Sharealike 2.0 Autori:: Photos by flipchip / LasVegasVegas.com File:Phil Hellmuth 2006.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Phil_Hellmuth_2006.jpg Licenza: Creative Commons Attribution-Sharealike 2.0 Autori:: Photos by flipchip / LasVegasVegas.com Immagine:Wikibooks-logo.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Wikibooks-logo.svg Licenza: logo Autori:: User:Bastique, User:Ramac et al. Immagine:Wikiquote-logo.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Wikiquote-logo.svg Licenza: Public Domain Autori:: -xfi-, Dbc334, Doodledoo, Elian, Guillom, Jeffq, Krinkle, Maderibeyza, Majorly, Nishkid64, RedCoat, Rei-artur, Rocket000, 11 Modifiche anonime File:Roulette wheel.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Roulette_wheel.jpg Licenza: Creative Commons Attribution 2.0 Autori:: Toni Lozano File:Roulette frz.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Roulette_frz.png Licenza: Public Domain Autori:: Bukk, Darsie, Denniss, Gregors, Hautala, Jed, Mattes, Medvedev, Pumbaa80, 1 Modifiche anonime File:Roulette wheel it.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Roulette_wheel_it.png Licenza: sconosciuto Autori:: Kranjo File:Integral Uprightness.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Integral_Uprightness.svg Licenza: Creative Commons Zero Autori:: User:WhiteTimberwolf Immagine:Rayleigh-Taylor instability.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Rayleigh-Taylor_instability.jpg Licenza: Public Domain Autori:: Original uploader was SeanAhern at en.wikipedia Immagine:Monte carlo method.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Monte_carlo_method.svg Licenza: Public Domain Autori:: --pbroks13talk? Original uploader was Pbroks13 at en.wikipedia File:Monte-Carlo method pi.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Monte-Carlo_method_pi.svg Licenza: Public Domain Autori:: Ramac File:Errore montecarlo calcolo pi greco.PNG Fonte: http://it.wikipedia.org/w/index.php?title=File:Errore_montecarlo_calcolo_pi_greco.PNG Licenza: Public Domain Autori:: Hellis File:Montecarlo.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Montecarlo.svg Licenza: Creative Commons Attribution-Sharealike 2.5 Autori:: Avron, Dake, Ramac, 1 Modifiche anonime Immagine:Wikisource-logo.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Wikisource-logo.svg Licenza: logo Autori:: Guillom, Jarekt, MichaelMaggs, NielsF, Rei-artur, Rocket000 Immagine:Wikiversity-logo-It.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Wikiversity-logo-It.svg Licenza: sconosciuto Autori:: Immagine:Boite a moustaches.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Boite_a_moustaches.png Licenza: Public Domain Autori:: Original uploader was HB at fr.wikipedia File:Histogram example.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Histogram_example.svg Licenza: Public Domain Autori:: Jkv 210 Licenza Licenza Creative Commons Attribution-Share Alike 3.0 Unported //creativecommons.org/licenses/by-sa/3.0/ 211