QuantoBasta 3 - Dipartimento di Sociologia e Ricerca Sociale

TQuArs – a.a. 2010/11
Tecniche quantitative per l’analisi nella ricerca sociale
Giuseppe A. Micheli
Lezione B.3
Dall’esperimento bernoulliano
ai teoremi di convergenza
In questa lezione..
In questa lezione studiamo un modello probabilistico costituito da
una molteplicità di esperimenti dello stesso tipo ripetuti.
Definiremo il concetto di esperimento ‘bernoulliano’, che ha come
esito due sole modalità alternative e ne trarremo quattro spunti:
Svilupperemo la forma che assume la distribuzione di una
variabile ottenuta come somma di tanti esperimenti bernoulliani.
Seguiremo due processi di formazione della variabile ‘somma’,
secondo il disegno campionario scelto (con/senza reimmissione).
Verificheremo a quali condizioni si può determinare la media e
la varianza di questa variabile ‘somma’ a partire da medie e
varianze delle variabili costituenti.
Infine rileveremo a quali condizioni processi di combinazione di
variabili di questo tipo convergono alla distribuzione Normale.
Il tassello elementare delle
variabili casuali
Torniamo a un esempio delle prime lezioni. Una Commissione composta da 11 deputati, 7 del Polo (P) e 4 dell’Ulivo (U),
deve nominare un Presidente. I deputati rimettono alla sorte
la nomina. Se si tratta di estrarre a sorte un solo presidente
la probabilità di eleggere uno del Polo è P(P)=7/11=0,64,
quella di uno dell’Ulivo è P(U)=4/11=0,36. Non ci sono altre
Una Variabile Casuamodalità alternative. Infatti P(P)+P(U)=1.
le è una successione
Possiamo sintetizzare queste informazioni in una variaordinata di coppie di
bile casuale X=“Coalizione del coordinatore”. Trattandovalori {xi, pi} univosi di due sole modalità alternative l’attenzione si può
camente associati,
concentrare sull’accadimento di una di esse, definendo
relativi a un esperi‘Successo’ l’estrazione di quella modalità e ‘Insuccesso’
mento probabilistico,
quella dell’altra. Si può associare alla prima modalità
dove le xi indicano i
valore numerico 1 (si tratta davvero di ‘un accadimenvalori associati agli
to’, né di meno né di più), alla seconda il valore 0.
esiti
Questa ‘legge’ di distribuzione di probadell’esperimento e le
0
1
bilità è la più elementare che esiste: la
pi le corrispon-denti
X=
definiamo ‘variabile di Bernoulli’.
probabilità di
P(0) P(1)
estrarre
casualmente la
La distribuzione di Bernoulli
Chiamiamo ellitticamente la probabilità di successo P(1)=p e
quella di insuccesso P(0)=q. Di questa distribuzione (discreta,
X=
in quanto assume solo valori quantitativi discreti, e ‘notevole’
cioè definita da una ‘regola’ matematica) possiamo tracciare il
grafico (un diagramma ad aste) e determinare i parametri di
base, media e varianza. Si può dimostrare che:
0,7
La media della distribuzione di Bernoulli è E(X)=p
La varianza è V(X)=pq, la deviazione standard X=pq
A fianco il diagramma ad aste della variabile “Presidente del
Polo”, con p=0,64, q=0,36=1-p, mX=0,64, 2X=0,23.
Esempio. Si estragga a caso una delle 20
regioni italiane: 11 hanno presidenza di
centrodestra, 9 di centrosinistra. La variabile “presidente di centrodestra” ha
distribuzione
X=
0
0,45
1
0,55
0
1
q
p
0,6
0,5
0,4
0,3
0,2
0,1
0
0
1
2
E ( X )   xi pi  (0  q)  (1  p )  p
i 1
2
E ( X )   xi pi  (02  q)  (12  p )  p
2
2
i 1
Var( X )  p  ( p ) 2  p  (1  p )  pq
Dicotomie ed eventi rari
DUE OSSERVAZIONI. La prima è che qualunque variabile
può essere ricondotta a forma dicotomica.
Per esempio: le regioni italiane hanno tassi di occupazione
maschile a 25 e 34 anni compresi tra il 55% (Calabria) e il
91% (Trentino): posso aggregarli in forma di variabile discreta o per classi. Ma se fisso una soglia minima (l’80%) di
occupazione di fatto trasformo la mia variabile quantitativa
discreta (X=tasso di occupazione) in una variabile dicotomica “Regioni sotto la soglia fissata di occupazione”, con probabilità di estrarre una regione sotto la soglia p=10/20.
La seconda osservazione è che una distribuzione di Bernoulli con p pari (o vicina) a 0,5 è una distribuzione
simmetrica. Invece quanto più lontano è p da 0,5 (o molto
più basso o molto più alto) la distribuzione sarà asimmetrica. Per questa particolare variabile maggiore è la
asimmetria maggiore è la varianza.
In particolare parliamo di eventi rari quando la probabilità di
successo è molto bassa (per es. la probabilità che un anziano debba ricorrere a una struttura residenziale assistita è
generalmente stimata dall’OMS intorno al 3%).
=0,5x0,5=0,50
1
0,8
0,6
0,4
0,2
0
0
1
=0,97x0,03=0,17
1
0,8
0,6
0,4
0,2
0
0
1
Reiterare esperimenti
bernoulliani
Un’estrazione casuale da una popolazione dicotomica con probabilità di successo
P(X) costante e indipendente da altre estrazioni si dice esperimento
bernoulliano.
Ma è raro che possa interessarci un singolo esperimento. Avremo in genere campionamenti costituiti da una sequenza di s estrazioni “con reimmissione nell’urna”
(detti campionamenti ‘bernoulliani’), e cercheremo di capire quanti ‘successi’
(accadimenti del carattere sotto osservazione) si sono realizzati in s estrazioni.
Torniamo alla commissione parlamentare e al caso in cui essa debba sorteggiare
ogni settimana un presidente. A ognuno degli 11 assessori può capitare di essere
estratto più volte: ogni estrazione è indipendente dalle precedenti.
A ogni estrazione la probabilità che esca un deputato del Polo è pari al rapporto tra
componenti del Polo in Commissione (7) e totale dei componenti (11) [P(P)=0,636,
costante]. La distribuzione di Bernoulli X=“un presidente proveniente dal Polo” è:
X=
0
1
q=0,364 p=0,636
Combinare i risultati di due
esperimenti
Ripetiamo il sorteggio tra i deputati. Su due sorteggi quelli andati al Polo possono
essere due, uno o nessuno. Riportando le modalità dell’esperimento in forma di
tabella a doppia entrata, possiamo capire in quali casi troviamo 0 delegati del
Polo, in quali uno e così via. Per esempio, nella combinazione inscritta in un circolo esce uno del Polo al primo sorteggio (probabilità p) e uno dell’ Ulivo (probabilità q) al secondo: il numero di delegati del Polo sorteggiati è quindi 1.
Qual’è la probabilità di questa combinazione?
Sappiamo che in generale P(PU)=P(P)xP(U/P)
(sesto postulato del calcolo delle probabilità), e
quindi cambia molto se i due esperimenti sono
influenzati l’uno dall’altro. Donde l’utilità di fare
l’ipotesi di indipendenza tra le due variabili XI e
XII. In tal caso infatti P(PU)=P(P)xP(U). Per esempio P(10)=p*q.
Ma il risultato “1” (un eletto del Polo su 2) si può
ottenere anche con la sequenza “primo sorteggiato dell’Ulivo, secondo del Polo”, con probabilità q*p di accadere. Le due sequenze {P,U} e
{U,P} sono tra loro disgiunte, quindi la probabilità complessiva è la somma delle probabilità…
XI
XII
0
1
0
0
q*q
1
q*p
q
1
1
p*q
2
p*p
p
q
p
1
Così la somma di due variabili
bernoulliane indipendenti dà
luogo a una nuova variabile:
X(2)=
0
1
2
q2
2pq
p2
Da due a tre a ‘n’ esperimenti
ripetuti
La distribuzione di probabilità di una se0
1
2
quenza di due esperimenti bernoulliani
ha una sua forma particolare. Ai valori X(2)= XI+XII=
q2
2pq
p2
X=0,1,2 associa come probabilità i prodotti delle probabilità ponderati per i Verificate voi che media e varianza sono:
coefficienti binomiali (vedi il triangolo di
E[X(2)]=2p
Var[X(2)]=2pq
Tartaglia) corrispondenti.
Ma ora si può andare avanti, sorteggiando un
terzo delegato, e sommando quindi la variabile
XIII con la variabile appena calcolata X(2).
Calcolando nella distribuzione congiunta le probabilità composte e poi sommando quelle che
corrispondono a somme identiche (caselle cerchiate) perveniamo a una nuova variabile analoga alla precedente:
X(3)= XI +XII+XIII=
0
q3
1
2
3pq2 3p2q
3
p3
X(2) XIII
0
1
2
0
1
0
1
q2*q
q2*p
1
2pq*q
2
2pq*p
2
3
p2*q
p2*p
q
p
q2
2pq
p2
1
dove E[X(3)]=3p; V[X(3)]=3pq
Il triangolo di Tartaglia
Ricapitoliamo.
Se combino due esperimenti bernoulliani con probabilità costante p la distribuzione della somma è X={0,1,2} con corrispondenti numerosità {q2,2qp,p2}.
Se combino tre di questi esperimenti bernoulliani la distribuzione della somma è
X={0,1,2,3} con corrispondenti numerosità {q3,3q2p,3qp2,p3}. E così via..
Cavolo. Sono i termini dello sviluppo delle successive potenze di un binomio; e i
coefficienti numerici sono i “coefficienti binomiali”; e tutto questo, termini e
coefficienti, sappiamo condensarlo nel magico “triangolo” di Tartaglia.
N
q
q2
q3
q4
q5
q6
p
2qp
3q2p
4q3p
3qp2
6q2p2
5q4p 10q3p2
h
p2
p3
4qp3
10q2p3
1p4
5qp4
1p5
6q5p 15q4p2 20q3p3 15q2b4 6qp5
1p6

N ( N  1)( N  2)..( N  h  1)
h(h  1)( h  2)..3  2  1
Allora possiamo lanciarci
a calcolare le probabilità,
per esempio, di cinque
presidenze del Polo su 6
settimane, o anche tutte e sei! O di altre combinazioni intermedie...
La distribuzione binomiale
.364
.133
.048
.017
.006
.002
…
.025
…
…
.463
.253
.123
.056
.636
.404
.442
.322
.374
.195
.107
.341
.248
…
.257
…
.164
.298
.325
…
.104
.227
.066
…
…
Ecco le risposte (nella sesta
riga in blu). Data la composizione dell’urna (7 del Polo
e 4 dell’Ulivo) c’è un 6,6%
di probabilità per il Polo di
fare l’en plein (6 presidenti
in 6 settimane). E la composizione più frequente o
‘modale’ è 2U+4P in ordine
vario (prob=32,5%).
Ogni riga esprime dunque le probabilità di 0,1,2,..x ‘successi’ su n esperimenti
bernoulliani identici. La somma di ogni riga (controllate!) è uno. Sintetizziamo
questi risultati in forma di regola. Ecco la distribuzione di probabilità binomiale:
x = 0, 1, 2, .. N
La distribuzione binomiale corrisponde
dunque all’esito di un processo di somma
di tanti esperimenti bernoulliani ripetuti
identici tra loro.
X=
N
p(x) = x px qn-x
Evoluzione della distribuzione
binomiale
Una distribuzione binomiale è totalmente definita da
due parametri: il numero n degli esperimenti semplici combinati e la probabilità p costante di ‘successo’, cioè di accadimento dell’evento a cui siamo
interessati. Per brevità la indicheremo con Bin(n,p).
Costruiamo i diagrammi ad aste delle due distribuzioni binomiali con p=0,636 e rispettivamente n=3
e n=6. Ciò che si vede – a buon senso intuibile – è
che al crescere di n il campo di variazione di X si
allarga verso destra, e di conseguenza le probabilità
si abbassano (la somma deve essere 1). In generale al crescere di n la distribuzione binomiale
si espande indefinitamente.
Possiamo quindi aspettarci che crescano sia media
che varianza. In effetti avevamo già trovato che:
se X  Bin(2,p)
allora m(X)=2p
e
V(X)=2pq;
se X  Bin(3,p) allora m(X)=3p e V(X)=3pq …
Bin(3;0,636)
pi
0,5
0,4
0,3
0,2
0,1
0
0
1
2
xi
3
Bin(6;0,636)
0,4
0,3
0,2
0,1
0
0
1
2
3
4
5
6
Esiste forse una regola per calcolare media e varianza di una variabile somma? Sì!
xi
Media e varianza di una somma
di variabili
Vale infatti una regola generale, qualunque siano le distribuzioni coinvolte:
«La media della somma (o della differenza)
di due variabili è pari alla somma (o alla
differenza) tra le medie delle variabili
componenti»
E(XY) = E(X)  E(Y)
E(XY) = ij(xiyj)*pij =
Per la varianza non vale una regola così semplice:
= E(X)  E(Y) c.v.d.
= ij xi*pij  ijyj*pij =
= ixi*j pij  jyj*i pij =
=  i x i pi   j y j pj =
«La varianza della somma (o differenza) di due variabili è pari alla somma (sempre) delle varianze delle variabili componenti, più (meno) una
quantità detta Covarianza»
V(XY)= Var(X) + Var(Y)  2Cov(XY)
V(XY)=ij(xiyj)–E(XY)2pij=ijxiyj–mX–(mY)2pij=ij(xi–mX)(yj–mY)2pij=
=ij(xi–mX)2pij+ij(yj–mY)2pij  2*ij(xi–mX)*(yj-mY)pij=
=i(xi–mX)2pi + j(yj–mY)2pj 2cov(XY) =
= Var(X) + Var(Y)  2cov(XY) q.e.d.
chiamiamo covarianza o Cov(XY)
l’espressione cerchiata
(cos’è davvero la covarianza?)
La varianza di una variabile somma è dunque qualcosa di più (o di meno) della
pura somma delle varianze. Essa dipende anche dalla covarianza
Cov(X,Y) = ij[(xi – mX)*(yj–mY)]*pij
Dove, come sappiamo pij esprime la Prob [(X=xi)(Y=yj)].
La covarianza è una misura importantissima in analisi bivariata (e quindi la
ritroveremo tra qualche lezione). Si può mostrare che se X e Y sono v.c. indipendenti (nel qual caso pij=pi*pj) la Cov(X,Y) si annulla e vale la regola particolare:
«La varianza della somma (o della differenza) di due variabili tra loro
indipendenti è pari alla somma (sempre) delle varianze»
V(XY)= Var(X) + Var(Y)
Per capire il ruolo di Cov(X,Y) nella somma di variabili basta ricordare il sesto postulato del calcolo delle probabilità: “Se A e B sono insiemi di eventi indipendenti
allora P(AB)=P(A)*P(B)”. Analogamente se X e Y sono v.c. indipendenti, allora
pij=P[(X=xi)(Y=yj)]=pi*pj e in questo caso la covarianza Cov(X,Y) si annulla:
ij(xi – mX)*(yj–mY)pij =ixi –mXpij*jyj–mYpij =ixi –mXpi
*
jyj–mYpj =0*0=0
Asimmetria e distribuzione
binomiale
La Binomiale è la distribuzione di probabilità della
somma di n esperimenti bernoulliani identici tra loro
(p costante) ma anche tra loro indipendenti. Quindi
Se X Bin(n,p)  mX=np
2X=npq
e X=npq.
L’evoluzione della Binomiale dipende dal parametro p.
Se p=0,5 esa conserverà la simmetria anche al
crescere delle prove che si vengono sommando. Se
l’evento è invece più raro la Binomiale ne risentirà.
Bin(5;0,50)
pi
0,4
m=2,5;=1,12
0,3
0,2
0,1
0
0
1
2
3
4
5
xi
Supponiamo che vogliate partecipare a una prova di
Bin(5;0,25)
selezione, consistente in 5 test a risposta chiusa (sì0,5
m=1,25;=0,88
no) non avendo studiato un accidente. Rispondendo a
0,4
0,3
caso a ogni test avrete probabilità p=0,5 di azzeccar0,2
lo. Dopo 5 test (vedi figura) le probabilità di ottenere
0,1
4 e 5 successi saranno P(4)=0,156; P(5)=0,031. Se
0
per la sufficienza bastano quattro risposte giuste,
0
1
2
3
4
5
avrete il 18,7% di probabilità di farcela. Mica male!
Ma se la prova prevede per ogni test quattro risposte alternative, di cui una sola è
giusta (carognata!) la probabilità di azzeccare a caso la risposta giusta scende a
p=0,25 le probabilità di ottenere 4 e 5 successi diventano P(4)=0,015;P(5)=0,001
e le vostre chances complessive di farcela scendono a meno del 2%.
Forma della binomiale al
crescere di enne
Bin(20;0,50)
0,5
0,4
0,3
0,2
0,1
0
0,25
0,2
0,15
0,1
0,05
0
m=5,00;=1,94
10
8
6
m=1,00;=0,95
4
0
10
8
6
Bin(10;0,10)
Bin(20;0,25)
Bin(20;0,10)
0,3
m=2,00;=1,34
0,2
0,1
18
15
12
9
6
3
0
18
15
12
9
6
0
3
0
18
15
12
9
6
m=10,0;=2,24
3
0
0,2
0,15
0,1
0,05
0
4
m=2,50;=1,37
2
xi
0,3
0,25
0,2
0,15
0,1
0,05
0
0
10
8
6
4
m=5,00;=1,58
2
0
0,3p
0,25 i
0,2
0,15
0,1
0,05
0
Bin(10;0,25)
2
Bin(10;0,50)
S’è già visto che se XBin(n,p) la media è np e X=npq. Quindi al crescere di n
(cioè al moltiplicarsi degli esperimenti bernoulliani, o della dimensione del campione estratto) la distribuzione sposta il suo baricentro verso destra e si disperde
indefinitamente. Ma la cosa più sorprendente riguarda la forma…
Convergenza della binomiale
alla simmetria
Bin(30;0,25)
Se p=1/2 è già simmetrica la v. di Bernoulli e tale resta la Bin(n,p) per ogni n
28
24
20
16
12
8
4
0
In blu Bin(10;1/4)
0,3
In rosso Bin(20;1/4)
Se p=1/4 la binomiale già per n=10 ha
forma simmetrica, figurarsi per n=30.
Ma anche se p=1/10 (eventi rari) man
mano che la curva al crescere di n si
sposta assume una forma simmetrica..
m=3,00;=1,64
0,25
0,2
0,15
0,1
0,05
0
28
24
20
12
8
4
16
m=7,50;=2,37
0,25
0,2
0,15
0,1
0,05
0
0
Bin(30;0,10)
In grigio Bin(30;1/4)
0
0
0
0
Una regola generale sembrerebbe essere
che per n>30 qualunque binomiale tende
a convergere a una forma simmetrica…
Per evidenziare la tendenza alla simmetria disegniamo la binomiale in forma continua (scorretto ma efficace!)
Campioni non bernoulliani e
convergenza alla binomiale
Dato un ‘esperimento bernoulliano’ ripetuto s volte su una popolazione di N
elementi, di cui k di un tipo e (N-k) di un altro:
Se il campionamento avviene ‘con reimmissione’, le s estrazioni sono tra loro
indipendenti con probabilità costante e la probabilità di estrarre h ‘successi’ su
s è definita dalla legge di distribuzione BINOMIALE.
Se il campionamento avviene ‘senza reimmissione’ la probabilità ‘di successo’
è condizionata dall’esito delle prove precedenti e la probabilità di estrarre h
‘successi’ su s è definita dalla legge di distribuzione IPERGEOMETRICA.
Le due distribuzioni differiscono, ma solo per piccole dimensioni della popolazione. Detta k/n=p e ricordando che la numerosità complessiva è quella del
campione, è possibile confrontare media e varianza delle due variabili:
Media
Varianza
Binomiale
s*p
s*p*q
Ipergeometrica
s*p
s*p*q*(N-s)/(N-1)
L’ipergeometrica ha media uguale alla corrispondente binomiale e varianza moltiplicata
per il rapporto (N-s)/(N-1)<1. Rapporto che
tende a 1 al crescere di N e dello scarto N-s.
Dunque l’ipergeometrica ha dispersione minore, ma tende a
convergere alla Binomiale al
crescere dell’ammontare complessivo N della popolazione e
dello scarto tra dimensione N
della popolazione e dimensione
s del campione.
La variabile ‘media’
Chiusa la parentesi, torniamo al tema della convergenza e riepiloghiamo. Siano
X1, X2, .. Xn, n variabili tra loro indipendenti e con uguale media  e varianza 2.
La v.c. somma ha V(iXi)=iV(Xi)=n2 e E(iXi)=iE(Xi)=n*.
Nel caso particolare in cui Xi sia una Bernoulli con =p e 2=pq, la Bin(n,p)
somma di n esperimenti bernoulliani avrà media np e varianza npq.
Abbiamo seguito graficamente l’evoluzione della Binomiale. Per n crescente la
distribuzione tende a una forma simmetrica e campanulare accattivante, ma (che
guaio) che si espande e si disperde indefinitamente.
Ma cosa succede se teniamo fermo il
campo di variazione della variabile che
si ottiene per combinazione delle variabili elementari considerando non la somma bensì la media di n v.c. indipendenti e identicamente distribuite?
Si può provare che essa ha media
E(xi)/n=,
V(xi)/n=2/n
e
deviazione standard E(xi)=/n.
Dimostrarlo richiede pochi passi. Date
le proprietà di media e varianza
E(k*X)=k*E(X) e V(k*X)=k2*V(X)
si ottiene:
E(xi)/n=(1/n)*E(xi)=
=(1/n)*E(xi)=(1/n)*n=
V(xi)/n=(1/n2)*V(xi)=
=(1/n2)*V(xi)=(1/n2)n2=2/n
La variabile ‘media’ e la
convergenza stocastica
Facciamo il punto della situazione, usando sempre come base la binomiale.
La variabile Somma di n esperimenti bernoulliani identici tra loro e indipendenti si
distribuisce secondo una Binomiale con media np e deviazione standard npq. Al
crescere del numero n di estrazioni la curva assume forma simmetrica
campanulare, ma con crescente dispersione e traslazione verso destra.
Se considero invece la variabile Media degli stessi n esperimenti bernoulliani, essa
si distribuisce secondo una Binomiale con media p e deviazione standard /n=
[pq/n]. Al crescere del numero n di estrazioni la curva assumerà allora ancora
forma simmetrica campanulare e per giunta centrata sul parametro p della popolazione, ma con crescente concentrazione intorno a tale parametro.
Poiché /n0 per n se prendiamo un intorno di p piccolo quanto si vuole la
probabilità di osservare modalità in tale intorno crescerà indefinitamente. Si dice
che la v.c. media di n v.c. con media  converge stocasticamente a  per n
Dunque, con la variabile Somma la forma simmetrica si disperde senza limiti, con
la variabile Media essa tende al limite a concentrarsi intorno a un solo punto.
Nessuna di queste due combinazioni di variabili (somma e media) produce una
successione che converga a una forma standard. Come possiamo ‘tenere fermo’ il
campo di variazione della combinazione lineare delle Xi?
La variabile ‘somma di v.c.
standardizzate’
Ma noi conosciamo il modo di ‘tenere ferme’ sia la posizione
centrale che la dispersione di una v.c.: standardizzandola.
Consideriamo allora n v.c. qualunque, indipendenti e
identicamente distribuite (anche skew, non importa!), e
costruiamo la successione delle v.v. somma standardizzate:
S1=X1
 Z1 =(S1-) / 
Per esempio, se X
 Z2 =(S2-2) / [2]
 Bin(n,p) la varia- S2=X1+X2
bile Somma stan- S =X +X +X  Z =(S -3) / [3]
3
1
2
3
1
1
dardizzata è pari a
Zn=(Sn-np)/(npq) …
per ogni n.
S =X
 Z =(S -n) / [n]
n
i
n
v.c. Media
0
5
6
7
8
9
10
1
2
3
11
n
La nuova distribuzione converge non a un valore ma a
una forma riconoscibile ed esprimibile matematicamente. Si parla di convergenza in legge.
v.c. Somma
0
0
0
10
20
30
40
50
60
70
80
90
100
-4
-3
-2
-1
0
4
Il teorema del limite centrale
La definizione di convergenza ‘in legge’ obbliga
Enunciato formale:«Data una suca entrare nel mondo ‘alto’ della matematica.
Facciamolo in punta di piedi. C’è convergen- cessione di v.c. X1..Xn, di cui siano
za in legge quando la funzione di densità note le funzioni di ripartizione (cudi una variabile che si modifica in funzio- mulate) F1(X),F2(X)..Fn(X) si dice
ne di un ‘contatore’ n (per esempio il nume- che Xn, converge in legge alla v.c.
X per n quando limn Fn(X)=
ro di esperimenti bernoulliani, o di estrazioni
in un campione) tende per n, a combacia- F(X), salvo punti di discontinuità».
re con una forma limite indipendente da n.
Per primo fu De Moivre
(1733) a dimostrare che la
binomiale con p=0,5, standardizzata, converge in
leg-ge al crescere delle
prove n, alla normale
N(np,npq). Ma il risultato
più importante va sotto il
nome di…
Teorema del limite centrale: «Siano
X1,X2..Xn n variabili qualunque, indipendenti e identicamente distribuite,
con media  e varianza 2. Sia Sn =
X1+X2+..+Xn la successione delle variabili Somma con media n e varianza n2. E sia Zn=(Sn-n)/[n] la v.c.
standardizzata ricavata da Sn. Si dimostra che la successione {Zn}
converge in legge alla Normale
ridotta N(0,1)» (Lindeberg-Levy).
La distribuzione Normale
ridotta
E’ evidente l’importanza del
Teorema del Limite. Esso dice
che la distribuzione limite di una
somma standardizzata di variabili (indipendenti tra loro), qualunque esse siano purché identiche, è sempre di tipo N(0,1):
una distribuzione universale, che
non
dipende
da
nessun
parametro!
L’area sottesa alla
curva
in
un
intervallo
dato
è
dunque
fissa
e
tabulabile.
1
e
2
N ( 0,1)  f ( z ) 
z2

2
f(-1<x<1)=68,2%
34,1%
34,1%
13,6%
13,6%
2,3%
2,3%
0
-4
-3
-2
-1
m-2 m-
0m
1
2
3
m+ m+2
4
La tavola della Normale ridotta
Per usare la tavola della
N(0,1) si cerca nella
prima colonna (z=intero+primo decimale) e
prima
riga
(secondo
decimale) l’estremo superiore z di un intervallo 0<Z<z (z=0 corrisponde
alla
media):
all’incrocio tra riga e
colonna di entrata si
individua la probabilità
di
quella
regione:
f(0<Z<z)=(z). Per es.
f(0<Z<1,96)=0,475
e quindi:
f(-1,96<Z<1,96)=
=2(z)=0,95=95%
Richiamo: come usare la tavola
La tavola si limita a ‘tabulare’ le probabilità del campo di esistenza positivo della
Normale ridotta. Il motivo è chiaro: poiché la curva è simmetrica, il campo di
esistenza negativo è perfettamente speculare. Per esempio (come abbiamo appena
visto) f(-z<Z<0)=(-z)=(z). Ricapitoliamo qui sotto alcuni esercizi di buon
senso di calcolo di regioni via via più complesse:
(z)
Se z=1,96
Prob.di una
regione superiore alla
media e inferiore a z
(z)=0,475
(z)
Prob.di una
regione superiore a z,
superiore
alla media
0,5-(z)
0
-4
-3
-2
-1
0
1
2
3
0,5+(z)
(z)
0,5
4
Prob.di una
regione dal
valore minimo fino a z
(cumulata)
0
-4
-3
-2
-1
-3
-2
-1
1
2
3
(w)+(z)
Prob.di una
regione irregolare intorno alla
media
(w)=
(-w)
0
-4
0
(z)
0
0
1
2
3
4
-4
-3
-2
-1
0
1
2
3
4
4