Statistica

annuncio pubblicitario
07/01/15 Cenni di calcolo delle probabilità Definizioni •  Prova (esperimento aleatorio) –  Esperimento in cui si riscontra incertezza nel risultato –  ≠ Esperimento scien:fico (ripe:bile) –  L’insieme di tu@ i risulta: possibili è noto a priori •  Evento –  Uno dei possibili risulta: della prova •  Probabilità –  Numero tra 0 e 1 associato al verificarsi dell’evento 1 07/01/15 Definizioni Probabilità di un evento casuale è il rapporto tra il numero di casi favorevoli ed il numero di casi possibili, purché siano tu@ equiprobabili •  S:ma di una probabilità a priori ha limitazioni gravi nella ricerca sperimentale –  per calcolare la probabilità di un evento, è necessario conoscere preven:vamente le diverse probabilità di tu@ gli even: possibili •  Probabilità di un evento sperimentale può essere u:lizzata la sua frequenza, quando essa nelle varie ripe:zioni si man:ene approssima:vamente costante à Probabilità a posteriori –  concepire una serie di osservazioni od esperimen:, in condizioni uniformi o controllate sta:s:camente, per rilevarne la frequenza Algebra degli even8 •  Ω è lo spazio campione cioè l’insieme cos:tuito da tu@ i possibili risulta: di una prova –  Discreto: numero finito di even: campione, numero infinito numerabile •  Raggruppamento di even: denominato come evento (E), mentre un evento singolo viene denominato evento elementare – punto campione (e). 2 07/01/15 Algebra degli even8 NEGAZIONE Si definisce negazione di un evento A quell’ evento A (Ā negato) che si realizza quando non si realizza A A A Ā Ω Algebra degli even8 ! ∪ !!
UNIONE Si definisce unione tra due even: A e B quell’evento C che si realizza quando si realizza l’evento A o l’evento B, o entrambi A
A B Ω 3 07/01/15 Algebra degli even8 INTERSEZIONE A ∩ B Si definisce intersezione tra due even: quell’evento C che si realizza quando si realizzano entrambi gli even: A e B A C B Ω Algebra degli even8 PARTIZIONE DELLO SPAZIO CAMPIONE Una collezione di even: cos:tuita da even: necessari e incompa:bili si dice par8zione dello spazio campione. 4 07/01/15 Algebra degli even8 •  INCLUSIONE A B Se un evento A è incluso in un evento B tube le volte che si realizza A si realizza certamente B A abb B Ω Postula8 delle probabilità •  Postulato di non nega8vità: la probabilità associata a ciascun evento è un numero reale posi:vo o nullo •  Postulato di normalizzazione: La probabilità dell’evento certo è pari a 1 •  Postulato di numerabile addi8vità: la probabilità dell’unione di una serie di even: mutuamente esclusivi è pari alla somma delle singole probabilità 5 07/01/15 Even8 mutuamente esclusivi Due even: A e B sono mutuamente esclusivi se l’occorrenza dell’uno esclude l’altro Es: •  L’acidosi respiratoria e l’alcalosi respiratoria sono due even4 mutuamente esclusivi. Se ci si trova in una delle condizioni patologiche non si può simultaneamente avere anche l’altra •  Una mala=a cardiaca e il reflusso gastro-­‐esofageo non sono even4 mutuamente esclusivi. Se un soggeAo presenta dolore al torace e l’ECG conferma la presenza di un infarto, non significa necessariamente che il soggeAo non possa essere affeAo anche da reflusso esofageo Legge della somma Se due even: A e B sono mutuamente esclusivi allora: ! ! ∪ ! = ! ! + !(!)!
Da: due even: A, B non mutuamente esclusivi la probabilità che si verifichi l’evento A o l’evento B è: !(! ∪ !) = !(!) + !(!) − !(! ∩ !)!
6 07/01/15 Even8 condiziona8 Due even: A e B sono condiziona8 se il verificarsi di A dipende da B o viceversa •  Es: La probabilità che una persona possa vivere più di 80 anni è condizionata da mol4 faAori: sesso, anno di nascita, razza, ecc… Even8 condiziona8 Talvolta tu@ i possibili risulta8 possono essere un soAoinsieme del totale Se A e B sono il risultato di un esperimento può accadere che il verificarsi dell’evento B sia modificato dal fabo che si sia verificato l’evento A Si dice allora che l’evento B è condizionato da A e la probabilità che si verifichi l’evento B è condizionata dalla probabilità dell’evento A: 7 07/01/15 Even% condiziona% In ospedale si è verificata una epidemia di tossinfezione alimentare. Totale pazien4 158 Casi di mala=a: 99 Pazien4 che hanno consumato del pollo: 133 Pazien4 che hanno consumato il pollo tra i casi: 97 Qual è la probabilità di ammalarsi (B) tra chi ha consumato il pollo (A)? P(B/A) = P(B∩A)/P(A) = (97/158)/(133/158) = 97/133 = 0,73 = 73% P(B=mala@a) = 99/158 = 0,63 = 63% Legge del prodoAo Se due even: sono indipenden: allora la probabilità di BA è data dal prodobo della probabilità di A per la probabilità di B: P(B∩A)=P(A) * P(B) Supponiamo che sia noto che un farmaco produca effe= collaterali nel 10% dei pazien4 che lo assumono. Un medico ha somministrato il farmaco a 2 pazien4. Qual è la probabilità che entrambi presen4no l’effeAo collaterale? A= paziente 1 presenta l’effeAo collaterale B= paziente 2 presenta l’effeAo collaterale P(B∩A)=P(A) * P(B) = 0.1*0.1= 0.01 = 1% 8 07/01/15 •  Supponiamo che sia noto che un farmaco produca effe= collaterali nel 10% dei pazien4 che lo assumono. Un medico ha somministrato il farmaco a 2 pazien4. Qual è la probabilità che solo uno dei pazien4 presen4 l’effeAo collaterale? •  A= paziente 1 presenta l’effeAo collaterale •  B= paziente 2 presenta l’effeAo collaterale •  P(B U A) = P(A) + P(B) -­‐ P(BA) = 0.1 + 0.1 – 0.01 = 0.19 = 19% Teorema di Bayes •  Si supponga che A1, A2, … , An siano even: mutuamente esclusivi, la cui unione è lo spazio dei campioni S (uno di ques: even: si deve perciò necessariamente verificare) •  Se allora A è un generico evento, vale il seguente teorema Probabilità a priori della causa Ak P ( Ak | A) =
P ( Ak ) P ( A | Ak )
n
per k = 1, 2 , … n ∑ P ( Ai ) P ( A | Ai )
i =1
Verosimiglianza che l’evento A sia stato generato dalla causa Ak Probabilità a posteriori che essendosi realizzato l’evento A, esso sia stato generato dalla causa Ak 9 07/01/15 Applicazioni del teorema di Bayes in medicina Il teorema di Bayes permebe di determinare il valore predi@vo posi:vo di un test di screening E’ indispensabile conoscere a priori: •  la specificità (capacità di trovare i sogge@ veramente nega:vi tra i sani); •  la sensibilità (capacità di indicare come posi:vi sogge@ che sono mala:) •  la prevalenza della patologia Il test ideale sani
malati
valore di cut-off
10 07/01/15 Il test reale... VN
VP
FN
FP
valore
di cut-off
Teorema di Bayes e test diagnos8ci È noto che la valutazione della validità di un test diagnos:co viene effebuata soboponendo al test stesso un gruppo di sogge@ sicuramente affe@ dalla mala@a (M+) ed un gruppo di sogge@ sicuramente non affe@ da tale patologia (M–). I risulta: obenu: possono essere schema:zza: nella seguente tabella 2x2, dove con TD+ e TD– si intende rispe@vamente la posi:vità o nega:vità al test diagnos:co. 11 07/01/15 • 
• 
• 
• 
a è il numero di pazien: veri posi:vi (VP); b è il numero di pazien: falsi posi:vi (FP); c è il numero di pazien: falsi nega:vi (FN); d è il numero di pazien: veri nega:vi (VN). •  Sensibilità del test (SE) SE =
VP
× 100
VP + FN
•  Specificità del test (SP) SP =
VN
× 100
VN + FP
•  SE rappresenta dunque la probabilità di risultare posi:vi al test sobo la condizione di essere mala:, mentre SP è la probabilità di risultare nega:vi al test sobo la condizione di non essere mala:. •  Esse sono cioè probabilità condizionate ed esabamente SE = P(TD + | M + )
SP = P(TD − | M − )
•  Analogamente a quanto visto per la specificità e sensibilità possiamo concludere che anche il valore predi@vo posi:vo (VPP) e il valore predi@vo nega:vo (VPN) del test diagnos:co sono probabilità condizionate. In par:colare VP
VPP =
× 100 = P (M + | TD + )
VP + FP
VPN =
VN
× 100 = P (M − | TD − )
VN + FN
12 07/01/15 Applicando il teorema di Bayes si ha: P (M + | TD + ) =
P (M − | TD − ) =
P (M + ) × P (TD + | M + )
P (TD + )
P (M − ) × P (TD − | M − )
P (TD − )
=
=
P (M + ) × P (TD + | M + )
P (M + ) × P (TD + | M + ) + P (M − ) × P (TD + | M − )
P (M − ) × P (TD − | M − )
P (M − ) × P (TD − | M − ) + P (M + ) × P (TD − | M + )
Distribuzioni di probabilità Associare ai risulta: di un esperimento un valore numerico à Costruire una variabile casuale (o aleatoria, o stocas:ca) •  Ogni variabile casuale ha una corrispondente distribuzione di probabilità = funzione che sinte8zza la relazione tra i valori della variabile e la probabilità che ques: si presen8no –  Per variabili discrete, la distribuzione di probabilità specifica tu@ i possibili risulta: della variabile insieme alla probabilità che ciascuno di essi si verifichi –  Per variabili con:nue, la distribuzione di probabilità consente di determinare la probabilità associata ad intervalli di valori 13 07/01/15 pX (x) = P( X = x)
LA FUNZIONE DI PROBABILITA’ è una funzione algebrica che descrive la forma della distribuzione di probabilità La funzione di probabilità assegna una probabilità ad ogni realizzazione x della variabile casuale discreta X. px(2)
=0.03
px(3)
=0.06
px(4)
=0.08
px(5)
=0.11
px(6)
=0.14
px(7)
=0.17
px(8)
=0.14
px(9)
=0.11
px(10) =0.08
px(11) =0.06
px(12) =0.03
∑ p (x ) = 1
X
La distribuzione di probabilità Può essere espressa in forma di tabella o grafico che presenta le modalità e le probabilità associate oppure sobo forma di formula matema:ca dalla quale è possibile ricavare i singoli valori di probabilità 0,6
Risultato del lancio di una moneta 0,5
0,4
0,3
0,2
0,1
0
o
x
La somma delle probabilità da sempre 1. 28 14 07/01/15 Somma ricavata dal lancio di due dadi 0,18
0,16
0,14
0,12
0,10
0,08
0,06
0,04
0,02
0,00
2
3
4
5
6
7
8
9
10
11
12
Evento più probabile
29
Funzioni di densità di probabilità Numero con:nuo: le funzioni di probabilità sono funzioni di densità di probabilità ed avrebbero la forma di una linea p L’area è uguale a 1. 0 1300 4000 Reddito 15 07/01/15 Distribuzione binomiale •  Distribuzione teorica discreta e finita, per even: classifica: con una variabile binaria –  In un colle=vo di n unità che possono essere ripar4te solo in due classi A e B, con frequenze assolute na e nb, le cui frequenze rela4ve sono p e q con –  la probabilità di avere i volte l'evento A (e quindi n -­‐ i volte l'evento alterna:vo B) è data da Distribuzione binomiale •  Fornisce le risposte al problema delle prove ripetute •  S:ma le probabilità che un evento, con probabilità a priori o frequen:sta p, avvenga rispe@vamente 0, 1, 2,...i,...n volte, nel corso di n prove iden:che ed indipenden: 16 07/01/15 Distribuzione binomiale Generalizzando, indicando con n il numero di prove e con x il numero dei successi, si ha: Distribuzione binomiale •  Media della popolazione se calcolata come frequenza assoluta è: μ = n*p –  se calcolata come frequenza rela:va, è μ = p •  Varianza: –  Frequenza assoluta: σ2 = n*p*q –  Frequenza assoluta: σ2 =p*q / n Nella distribuzione binomiale la varianza è inferiore alla media –  con una media uguale a n⋅p e una varianza uguale a n*p*q –  poiché p + q è uguale a 1 ed il valore di q è inferiore a 1 –  il valore di n⋅p⋅q è inferiore a n⋅p. 17 07/01/15 Distribuzione di Poisson Viene u:lizzata: •  per variabili discrete •  per even: distribui: casualmente nel tempo e nello spazio E’ una distribuzione molto usata in campo biologico e medico: •  conta dei baAeri sulle piastre •  analisi di elemen4 in campioni di acqua •  conta dei globuli su un vetrino •  numero di interven4 di urgenza in un mese presso un pronto soccorso Distribuzione di Poisson Condizioni: •  Gli even: accadono in modo indipendente in un determinato intervallo i –  Il verificarsi di un evento in un intervallo di tempo o di spazio non influenza la probabilità di verificarsi di un secondo evento nello stesso intervallo di tempo o spazio •  La probabilità di un evento in un intervallo di tempo Δt infinitamente piccolo è direbamente proporzionale alla lunghezza dell’intervallo •  In una parte infinitamente piccola dell’intervallo la probabilità che più di un evento si verifichi è trascurabile 18 07/01/15 •  Se X è la variabile casuale che segue una distribuzione di Poisson la sua funzione di distribuzione di probabilità è •  “e” è la costante 2,7183 •  “λ” è il parametro della distribuzione di Poisson e corrisponde alla media. Una proprietà importante della distribuzione di Poisson è che media e varianza coincidono: λ = μ = σ2 E’ possibile approssimare la distribuzione binomiale alla distribuzione di Poisson quando n, il numero delle prove, è molto grande e p, la probabilità di successo, tende a zero: •  n→∞ •  p→0 •  B(n, p)≈Poisson(λ) •  n*p =λ= costante 19 07/01/15 Supponiamo di valutare la distribuzione dei sogge@ di una popolazione per età •  Possiamo riprodurre la distribuzione di frequenza u:lizzando un istogramma. •  Possiamo inoltre unire i pun: medi di ciascuna classe con una linea spezzata per rappresentare il fenomeno con un poligono di frequenza. •  Se rendiamo l’intervallo di classe progressivamente più piccolo….. 20 07/01/15 La distribuzione Normale •  …l’ampiezza può ridursi al punto che il poligono di frequenza possa essere approssimato ad una curva con:nua La distribuzione Normale La funzione di densità di probabilità della normale è data dalla seguente espressione: 1 ⎛ x − µ ⎞
σ ⎟⎠
− ⎜
1
f ( x) =
e 2 ⎝
σ 2π
2
Dove: e = costante matema:ca (Nepero) approssimata a 2,21828 π = costante matema:ca approssimata a 3,14159 μ = valore abeso della popolazione σ = scarto quadra:co medio della popolazione x = valori assun: dalla variabile aleatoria 21 07/01/15 La distribuzione Normale La distribuzione normale (o Gaussiana) è la distribuzione con:nua più u:lizzata in sta:s:ca. Le sue proprietà principali sono: 1.  ha forma campanulare 2.  le sue misure di posizione centrale (media, mediana e moda) coincidono 3.  ha due pun: di flesso in μ-­‐σ e in μ+σ 4.  assume valori compresi tra -­‐∞ e +∞ 5.  ha come asintoto orizzontale l’asse delle ascisse lim f ( x) = lim f ( x) = 0
x→−∞
x→∞
La distribuzione Normale Essendo e e π delle costan: matema:che, le probabilità di una distribuzione normale dipendono soltanto dai valori dei due parametri μ e σ. Diverse combinazioni di ques: parametri danno luogo a differen: distribuzioni normali. 22 07/01/15 La distribuzione Normale Distribuzione normale al variare di μ. Distribuzione normale al variare di σ.
45 La distribuzione di Gauss ha alcune caraberis:che :piche: •  È simmetrica intorno alla sua media •  la media, la mediana e la moda coincidono •  l’area sobo la curva è uguale ad 1 (100%) •  l’area sobo la curva compresa nell’intervallo: μ-­‐σ ed μ+σ è pari al 68% dell’area totale μ-­‐2σ e μ+2σ è pari al 95% del totale μ-­‐3σed μ+3σ è pari al 99,7% del totale 23 07/01/15 Esistono degli indici per misurare la normalità della curva di Gauss: asimmetria: •  asimmetria = 0 curva normale •  asimmetria < 0 coda sinistra più lunga •  asimmetria >0 coda destra più lunga curtosi: curtosi= 3 curva normale curtosi< 3 code leggere, distribuzione appun:ta (ipernormale o leptocur:ca) curtosi> 3 code pesan:, distribuzione piaba (iponormale o pla:cur:ca). •  Distribuzione di Gauss cumula:va teorica e distribuzione cumula:va osservata 24 07/01/15 L’ul:ma caraberis:ca enunciata ci dice che esiste una famiglia di distribuzioni di gauss ed ogni membro è dis:nto in base ai valori di μ e σ. Tra le varie curve di Gauss la più importante è la distribuzione di Gauss standard che ha •  media = 0 •  deviazione standard = 1 L’espressione matema:ca della distribuzione di Gauss Standard è: Distribuzione Normale •  Le proprietà più u:li della distribuzione normale non sono i rappor: tra ascissa ed ordinata, presenta: in precedenza, ma le relazioni tra la distanza dalla media e la densità di probabilità sobesa dalla curva •  La frazione dei casi compresi –  fra μ+σ e μ-­‐σ è uguale al 68,27% (in cifra tonda o in valore approssimato i 2/3) –  quella fra μ+2σ e μ-­‐2σ è uguale 95,45% (in cifra tonda 95%) –  quella fra μ+3σ e μ-­‐3σ è esabamente uguale al 99,73% (circa il 99,9%) 25 07/01/15 Distribuzione Normale •  Le proprietà più u:li della distribuzione normale non sono i rappor: tra ascissa ed ordinata, presenta: in precedenza, ma le relazioni tra la distanza dalla media e la densità di probabilità sobesa dalla curva •  La frazione dei casi compresi –  fra μ+σ e μ-­‐σ è uguale al 68,27% (in cifra tonda o in valore approssimato i 2/3) –  quella fra μ+2σ e μ-­‐2σ è uguale 95,45% (in cifra tonda 95%) –  quella fra μ+3σ e μ-­‐3σ è esabamente uguale al 99,73% (circa il 99,9%) Distribuzione Normale µ−3σ
µ − 3σ
µµ−2σ
− 2σ
µµ−σ
−σ
µµ
µ+σ
µ+σ
µµ+2σ
+2σ
µµ+3σ
+ 3σ
68.27%
95.45%
99.73%
Figura 16. Relazioni tra distanza dalla µ in σ e densità di probabilità sottesa dalla curva.
La relazione tra la percentuale di dati sottesi dalla curva e le dimensioni dell’intervallo tra due valori è
una caratteristica di rilevante importanza nella statistica applicata: se la distribuzione è normale, è
sufficiente conoscere due parametri di una serie di dati, la media µ e la varianza σ2 (o altro
parametro da esso derivato come la deviazione standard σ), per conoscere anche la sua
distribuzione.
Più di un secolo fa, a partire da dati sperimentali due matematici Bienaymé e Chebyshev (Jules
Bienaymé francese, nato nel 1796 e morto nel 1878; Pahnuty Lvovich Chebyshev russo, nato nel
26 07/01/15 Normale standardizzata o normale ridoAa •  Le infinite forme della distribuzione normale, determinate dalle combinazioni di differenze Per i momenti di ordine pari, è bene ricordare che
nella media e nella varianza, possono essere tube - ilricondobe momento di a
secondo
ordine è uguale
alla varianza (µ2 = σ2)
lla medesima forma di quarto ordine
uguale
a 3 volte la varianza
• - ed
La ilsmomento
tandardizzazione è uèna trasformazione che al quadrato (µ4 = 3σ4).
consiste nel: di Pearson risulta β1 = 0.
L'indice
di simmetria
–  rendere la media nulla (μ = 0), poiché ad ogni valore viene sobraba la media; µ4 3 σ 4
è
β
=
= 4 unità = 3. di L'indice
di
curtosi
di
Pearson
2
–  prendere la deviazione standard σσ4 come σ
misura (σ = 1) della nuova variabile L'indice di simmetria di Fisher è γ 1 = 0.
L'indice di curtosi di Fisher è γ 2 =
µ4
−3= 0
σ4
Le infinite forme della distribuzione normale, determinate dalle combinazioni di differenze
media e nella varianza, possono essere tutte ricondotte alla medesima forma. E’ la distrib
Normale standardizzata o normale ridoAa media=0 e doeviazione tandard=1 normale sridotta,
che è ottenuta mediante il cambiamento di va
normale standardizzata
dato da
Z=
X−µ
σ
La standardizzazione è una trasformazione che consiste nel:
- rendere la media nulla (µ = 0), poiché ad ogni valore viene sottratta la media;
- prendere la deviazione standard σ come unità di misura ( σ = 1) della nuova variabile.
Come conseguenza, si ottiene anche una trasformazione degli scarti x-µ in scarti ridotti,
Z'=
X−µ
σ
La distribuzione normale ridotta viene indicata con N(0,1)., che indica appunto una distribuzio
27 normale con media 0 e varianza uguale a 1.
Dopo il cambiamento di variabile, nella normale ridotta la densità di probabilità è data da
z2
07/01/15 0.45
0.40
0.35
0.30
0.25
0.20
0.15
0.10
0.05
0.00
-4.0
-3.0
-2.0
-1.0
0.0
1.0
2.0
3.0
4.0
Y = Ordinata della curva normale standardizzata in z.
Z
.00
.01
.02
.03
.04
.05
.06
.07
.08
.09
0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
1.1
1.2
1.3
1.4
1.5
1.6
1.7
1.8
1.9
2.0
2.1
2.2
2.3
2.4
2.5
2.6
2.7
2.8
2.9
3.0
3.1
3.2
3.3
3.4
3.5
3.6
3.7
3.8
3.9
.3989
.3970
.3910
.3814
.3683
.3521
.3332
.3123
.2897
.2661
.2420
.2179
.1942
.1714
.1497
.1295
.1109
.0940
.0790
.0656
.0540
.0440
.0355
.0283
.0224
.0175
.0136
.0104
.0079
.0060
.0044
.0033
.0024
.0017
.0012
.0009
.0006
.0004
.0003
.0002
.3989
.3965
.3902
.3802
.3668
.3503
.3312
.3101
.2874
.2637
.2396
.2155
.1919
.1691
.1476
.1276
.1092
.0925
.0775
.0644
.0529
.0431
.0347
.0277
.0219
.0171
.0132
.0101
.0077
.0058
.0043
.0032
.0023
.0017
.0012
.0008
.0006
.0004
.0003
.0002
.3989
.3961
.3894
.3790
.3653
.3485
.3292
.3079
.2850
.2613
.2371
.2131
.1895
.1669
.1456
.1257
.1074
.0909
.0761
.0632
.0519
.0422
.0339
.0270
.0213
.0167
.0129
.0099
.0075
.0056
.0042
.0031
.0022
.0016
.0012
.0008
.0006
.0004
.0003
.0002
.3988
.3956
.3885
.3778
.3637
.3467
.3271
.3056
.2827
.2589
.2347
.2107
.1872
.1647
.1435
.1238
.1057
.0893
.0748
.0620
.0508
.0413
.0332
.0264
.0208
.0163
.0126
.0096
.0073
.0055
.0040
.0030
.0022
.0016
.0011
.0008
.0005
.0004
.0003
.0002
.3986
.3951
.3876
.3765
.3621
.3448
.3251
.3034
.2803
.2565
.2323
.2083
.1849
.1626
.1415
.1219
.1040
.0878
.0734
.0608
.0498
.0404
.0325
.0258
.0203
.0158
.0122
.0093
.0071
.0053
.0039
.0029
.0021
.0015
.0011
.0008
.0005
.0004
.0003
.0002
.3984
.3945
.3867
.3752
.3605
.3429
.3230
.3011
.2780
.2541
.2299
.2059
.1826
.1604
.1394
.1200
.1023
.0863
.0721
.0596
.0488
.0396
.0317
.0252
.0198
.0154
.0119
.0091
.0069
.0051
.0038
.0028
.0020
.0015
.0010
.0007
.0005
.0004
.0002
.0002
.3982
.3939
.3857
.3739
.3589
.3410
.3209
.2989
.2756
.2516
.2275
.2036
.1804
.1582
.1374
.1182
.1006
.0848
.0707
.0584
.0478
.0387
.0310
.0246
.0194
.0151
.0116
.0088
.0067
.0050
.0037
.0027
.0020
.0014
.0010
.0007
.0005
.0003
.0002
.0002
.3980
.3932
.3847
.3725
.3572
.3391
.3187
.2966
.2732
.2492
.2251
.2012
.1781
.1561
.1354
.1163
.0989
.0833
.0694
.0573
.0468
.0379
.0303
.0241
.0189
.0147
.0113
.0086
.0065
.0048
.0036
.0026
.0019
.0014
.0010
.0007
.0005
.0003
.0002
.0002
.3977
.3925
.3836
.3712
.3555
.3372
.3166
.2943
.2709
.2468
.2227
.1989
.1758
.1539
.1334
.1145
.0973
.0818
.0681
.0562
.0459
.0371
.0297
.0235
.0184
.0143
.0110
.0084
.0063
.0047
.0035
.0025
.0018
.0013
.0009
.0007
.0005
.0003
.0002
.0001
.3973
.3918
.3825
.3697
.3538
.3352
.3144
.2920
.2685
.2444
.2203
.1965
.1736
.1518
.1315
.1127
.0957
.0804
.0669
.0551
.0449
.0363
.0290
.0229
.0180
.0139
.0107
.0081
.0061
.0046
.0034
.0025
.0018
.0013
.0009
.0006
.0004
.0003
.0002
.0001
Teorema fondamentale della convergenza stocas8ca •  La distribuzione binomiale (p + q)n tende alla legge di distribuzione normale, quando n tende all'infinito. •  La distribuzione poissoniana tende alla distribuzione gaussiana quando la media è Figura 14 con tabella delle ordinate per ascisse (z) della distribuzione normale standardizzata
elevata; in pra:ca superiore a 6. La media di n variabili aleatorie indipenden:, che 66
singolarmente seguono una legge qualunque, segue la legge normale quando n è grande 28 07/01/15 Teorema fondamentale della convergenza stocas8ca Qualunque sia la forma della distribuzione di n variabili casuali indipenden4 (xi), la loro somma X (con X = x1 + x2 + x3 +... + xn) è asinto4camente normale, con media generale uguale alla somma delle singole medie e varianza generale uguale alla somma delle singole varianze •  Nella pra:ca, tube le distribuzioni sono ugualmente bene approssimate dalla distribuzione normale Teorema fondamentale della convergenza stocas8ca •  Nella pra:ca, tube le distribuzioni sono ugualmente bene approssimate dalla distribuzione normale •  Spesso una semplice trasformazione conduce ad una distribuzione normale: –  radice quadrata o cubica –  reciproco –  elevamento a potenza –  logaritmi 29 
Scarica