Capitolo 7 rivisto per PT - senza esempi - UniFI

B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
Capitolo 7
TEST DELLE IPOTESI
In questo capitolo si affronta il problema della verifica d’ipotesi statistiche limitando la
trattazione alla cosiddetta teoria classica del test delle ipotesi parametriche.
Argomentazioni diverse devono essere svolte sia nei riguardi della impostazione
bayesiana della teoria del test delle ipotesi sia nei riguardi della teoria dei test nonparametrici (da non confondere con le ipotesi non-parametriche), aspetti questi che non
vengono qui trattati.
E’ stato sottolineato in precedenza che la teoria dell’inferenza statistica riguarda
principalmente due specifici argomenti: la stima (puntuale e per intervallo) ed il test
delle ipotesi. In entrambi i casi si tratta di valutare aspetti incogniti, concernenti una
determinata v.c., in base alle informazioni di un campione. Il problema della stima e
quello del test delle ipotesi, anche se simili, vanno comunque tenuti distinti in quanto
coinvolgono problematiche diverse. Infatti: nel primo caso il campione viene utilizzato
per stimare un’entità incognita relativa ad una certa v.c.; nel secondo caso il campione
viene utilizzato per verificare statisticamente la validità di una certa affermazione
(ipotesi) su un’entità incognita relativa a una certa v.c.
1. Concetti di base
Per introdurre il test delle ipotesi conviene collegarsi a quanto illustrato
nell'introduzione al capitolo 6.
Facendo riferimento per semplicità all’approccio parametrico all’inferenza statistica, il
punto di partenza di un problema di test delle ipotesi è identico a quello di un problema
di stima dei parametri: c’è un certo fenomeno, il cui risultato non è prevedibile con
certezza, di cui interessa studiare determinate caratteristiche; dal punto di vista
probabilistico questo fenomeno è rappresentato da una v.c., diciamo X; per coglierne il
comportamento casuale si sceglie fra quelli a disposizione (o si inventa ex-novo) un
modello statistico, sotto forma di funzione di massa se X è discreta o di funzione di
1
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
densità se X è continua (oppure si formula un modello più complesso se, ad esempio,
interessa studiare la relazione fra più variabili).
Quello che cambia, appunto, è proprio il problema. Quando si effettua stima dei
parametri, puntuale o per intervallo, l’informazione campionaria (eventualmente
integrata da conoscenze a priori se si utilizza un approccio bayesiano) viene utilizzata
per stimare uno o più parametri incogniti del modello scelto per X. Quando invece si fa
test delle ipotesi sui parametri, l’informazione campionaria (eventualmente integrata da
conoscenze a priori se si utilizza un approccio bayesiano) viene utilizzata per decidere
se accettare o rifiutare una certa ipotesi concernente uno o più parametri incogniti del
modello scelto per X.
La rilevanza del problema di test delle ipotesi è facilmente intuibile se si pensa che
all’accettazione o al rifiuto di una certa ipotesi è spesso collegata la scelta di una
particolare linea di comportamento.
Definizione 1: Definizione di ipotesi statistica. Sia X una v.c. con funzione di massa o
di densità f(x; θ), dove θ ∈ Θ è un parametro incognito. Allora
un’ipotesi statistica è un’affermazione che specifica completamente o
parzialmente la distribuzione di X. Tale affermazione può riferirsi:
•
a θ, cioè ai soli parametri caratteristici della distribuzione (e in tal
caso l’ipotesi è detta parametrica);
•
a f(x; θ), cioè alla forma funzionale della distribuzione (e in tal caso
l’ipotesi è detta non-parametrica o distribution free).
L’ipotesi statistica in oggetto è usualmente detta ipotesi nulla o ipotesi
di lavoro ed è indicata con H0.
Con riferimento a quanto illustrato nell’introduzione al capitolo 6, è opportuno fare
chiarezza su un aspetto abbastanza sottile. Un’ipotesi parametrica, cioè un’ipotesi
riguardante soltanto certi parametri caratteristici, ha senso sia in un contesto
parametrico (in cui il modello è completamente specificato in tutte le sue parti) che
semi-parametrico (nel quale del modello sono formulate solo certe componenti
fondamentali). Al contrario un’ipotesi non-parametrica, cioè relativa la forma
funzionale della distribuzione ha senso soltanto in ambito non-parametrico: per
2
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
rendersene conto basta pensare al fatto che un’eventuale assunzione sulla forma della
distribuzione di X configgerebbe con quella dell’ipotesi (se diversa) oppure sarebbe una
pura tautologia (se uguale).
In questo corso ci occuperemo prevalentemente di ipotesi statistiche parametriche,
relative cioè ai soli parametri caratteristici θ del modello scelto f(x; θ) (diremo
qualcosa sul test d'ipotesi non-parametriche nella sez. 18). In questo caso l’ipotesi nulla
si concretizza nell’affermazione che θ appartiene ad un certo sottoinsieme Θ0 dello
spazio parametrico Θ, in simboli
H0: θ ∈ Θ0.
D’altra parte, poiché Θ0 è un sottoinsieme di Θ, dall’ipotesi nulla precedente risulta
automaticamente definita anche un’ipotesi alternativa
H1: θ ∈ Θ1,
dove Θ1 è il complementare di Θ0 in Θ. Di conseguenza ipotesi nulla e ipotesi
alternativa formano una partizione di Θ in Θ0 e Θ1 (si veda Fig. 1).
Tornando alla definizione precedente, quando un’ipotesi statistica specifica
completamente la distribuzione di X allora è detta semplice, se invece la specifica solo
parzialmente allora è detta composta. E’ chiaro allora che affinché un’ipotesi sia
semplice, ovvero affinché la specificazione della distribuzione di X sotto tale ipotesi sia
completa, occorre che, contemporaneamente: 1) l’ipotesi sia di tipo puntuale, cioè
individui un solo punto dello spazio parametrico; 2) non vi siano altri parametri
incogniti. Per chiarire questo aspetto vediamo alcuni esempi.
•
Sia X ~ Be(p). Allora:
-
se H0: p = 0.3, H1: p = 0.4, entrambe le ipotesi sono semplici (in questo caso lo
spazio parametrico è {0.3, 0.4});
-
se H0: p = 0.3, H1: p > 0.3, l’ipotesi nulla è semplice mentre l’alternativa è
composta unidirezionale (in questo caso lo spazio parametrico è [0.3, 1]);
-
se H0: p = 0.3, H1: p ≠ 0.3, l’ipotesi nulla è semplice mentre l’alternativa è
composta bidirezionale (in questo caso lo spazio parametrico è [0, 1]);
-
se H0: p ≤ 0.3, H1: p > 0.3, sia l’ipotesi nulla che l’alternativa sono composte
unidirezionali (in questo caso lo spazio parametrico è di nuovo [0, 1]).
3
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
•
Sia X ~ N(µ, σ2 = 10). Allora, essendo σ2 nota:
-
se H0: µ = 15, H1: µ = 10, entrambe le ipotesi sono semplici (in questo caso lo
spazio parametrico per µ è {10, 15});
-
se H0: µ = 15, H1: µ < 15, l’ipotesi nulla è semplice mentre l’alternativa è
composta unidirezionale (in questo caso lo spazio parametrico per µ è (–∞,
15]);
-
se H0: µ = 15, H1: µ ≠ 15, l’ipotesi nulla è semplice mentre l’alternativa è
composta bidirezionale (in questo caso lo spazio parametrico per µ è (–∞,
+∞));
-
se H0: µ ≥ 15, H1: µ < 15, sia l’ipotesi nulla che l’alternativa sono composte
unidirezionali (in questo caso lo spazio parametrico per µ è di nuovo (–∞, +∞)).
•
Sia X ~ N(µ, σ2). Allora, essendo σ2 incognita, qualsiasi ipotesi su µ, sia di tipo
puntuale che non, è composta.
Tornando a quanto detto in precedenza, obiettivo del test delle ipotesi è decidere se
accettare o rifiutare l’ipotesi nulla H0 sulla base del campione.
Definizione 2: Definizione di test delle ipotesi. Un test di ipotesi è una regola attraverso la quale decidere se accettare o rifiutare l’ipotesi nulla H0
sulla base del campione x = (x1, …, xn).
Concretamente, tale regola è attuata nel modo seguente. Indicato con C
l’universo dei campioni (cioè l’insieme di tutti i possibili campioni x =
(x1, …, xn) di dimensione fissata n che si possono estrarre da X), un test
delle ipotesi consiste nel suddividere l’insieme C in due sottoinsiemi
disgiunti A e R (quindi A ∪ R = C e A ∩ R = ø) in modo tale che:
•
se x cade in A → si accetta l’ipotesi H0;
•
se x cade in R → si rifiuta l’ipotesi H0 (e quindi si accetta H1).
A è detto regione di accettazione, mentre R è detto regione di rifiuto o
regione critica.
Il processo decisionale di cui alla definizione precedente è schematizzato in Fig. 1.
4
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
C
Θ
Θ0
A
R
Θ1
Fig. 1 – Rappresentazione grafica del processo decisionale del test delle ipotesi. L’unico
aspetto su cui la teoria può intervenire è sul “confine” (tratteggiato nella figura) fra
regione di accettazione A e regione di rifiuto R.
A questo punto, date due ipotesi statistiche H0 e H1 che formano una partizione di Θ e
data una regola di decisione basata su un campione x quale quella indicata sopra, è
banale osservare che, nell’accettare o rifiutare H0, si può agire correttamente ma si
possono anche commettere degli errori. Più in dettaglio, con riferimento all’ipotesi H0:
si ha una decisione corretta se si accetta l’ipotesi quando è vera o si rifiuta quando è
falsa, mentre si ha una decisione errata se si accetta l’ipotesi quando è falsa o si rifiuta
quando è vera. Queste quattro situazioni sono schematizzate nella Tabella 1.
Verità
Decisione
H0: θ ∈ Θ0
H1: θ ∈ Θ1
x∈A
ok
errore di II tipo
x∈R
errore di I tipo
ok
Tabella 1 - Tavola di decisione in un test delle ipotesi.
Prima di commentarne il contenuto, si evidenzia che questa tabella “fotografa” l’essenza
del test delle ipotesi: si tratta di una partita dell’uomo contro la “natura”, nella quale la
seconda stabilisce quale delle due ipotesi è vera, mentre l’uomo può solo decidere,
basandosi sull’informazione del campione, se accettare o rifiutare H0. Detto in altre
parole la “natura” stabilisce la colonna della tabella, mentre l’uomo può solo decidere la
riga. Nella realtà, quindi, non sappiamo mai quale è vera fra H0 e H1 (e quindi qual è la
5
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
colonna giusta), ma possiamo stabilire solo quale decisione prendere (cioè quale riga
scegliere). E’ ovvio però che per prendere la decisione in oggetto occorre valutare cosa
succede a seconda delle “mosse dell’avversario”, cioè quali sono le conseguenze di
ciascuna decisione a seconda di cosa la “natura” ha stabilito: il contenuto della tabella
evidenzia proprio questo.
Nel processo decisionale indicato si possono allora commettere due tipi di errore:
a. errore di I tipo: è l’errore che si commette quando è vera H0 ma x ∈ R e quindi la
decisione è rifiutare H0;
b. errore di II tipo: è l’errore che si commette quando è vera H1 ma x ∈ A e quindi la
decisione è accettare H0.
Facciamo notare che l’errore di I tipo è l’unico errore che si può commettere quando è
vera H0, mentre l’errore di II tipo è l’unico errore che si può commettere quando è vera
H1.
La probabilità di commettere un errore di I tipo, cioè la probabilità di rifiutare H0
quando essa è vera, è indicata usualmente con α:
α = P(I) = P(X ∈ R | H0)
ed è detta livello di significatività del test.
La probabilità di commettere un errore di II tipo, e cioè la probabilità di accettare H0
quando essa è falsa, è indicata con β:
β = P(II) = P(X ∈ A | H1).
La probabilità di rifiutare H0 quando è vera H1, cioè
γ = P(X ∈ R | H1) = 1 – β,
è detta potenza del test (dall’inglese power) ed è pari a 1 – β in quanto l’evento
considerato è complementare all’errore di II tipo.
Chiaramente: quando l’ipotesi alternativa è puntuale allora sia β che γ sono dei valori;
se invece H1 non è di tipo puntuale, allora sia β che γ sono funzione della specificazione
di tale ipotesi (maggiori dettagli saranno forniti nella sez. 4).
La probabilità di accettare H0 quando è vera, è data da
P(X ∈ A | H0) = 1 – α
e non ha un nome particolare.
6
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
2. Teoria del test delle ipotesi
A questo punto ci sono tutti gli elementi per sviluppare la teoria del test delle ipotesi.
Espressa per adesso in termini intuitivi, l’idea di base, visto che il processo decisionale
relativo al test delle ipotesi può essere affetto da errore (di I o di II tipo) è quella di
congegnare tale processo in modo da “sbagliare il meno possibile”. D’altra parte, per
quanto detto in precedenza questo equivale a curare la suddivisione di C nelle due
regioni A e R nel miglior modo possibile. Infatti: da una parte la formulazione
dell’ipotesi nulla è “suggerita” dal fenomeno in analisi e dall’interesse di chi lo
analizza; dall’altra la realizzazione campionaria x non può essere certo stabilita da chi
effettua le analisi; l’unica cosa su cui si può intervenire è la suddivisione di C in A e R
(e quindi, relativamente alla Fig. 1, solo sul “confine” fra le due regioni). Pertanto tutto
ciò che la teoria può fare è effettuare la partizione dell’universo dei campioni C in A ed
R in modo da “sbagliare il meno possibile” nel decidere se accettare o rifiutare H0:
quando nel seguito discuteremo della ricerca del test migliore, per test intenderemo
sempre una suddivisione di C in regione di accettazione A e regione di rifiuto R.
Così posto il problema, si vede chiaramente che il test ideale sarebbe quello che opera
una suddivisione di C in A ed R in modo da non incorrere mai in errore e quindi cadere
sempre nelle caselle ok della Tabella 1, cioè: se è vera H0 decidere di accettare H0,
mentre se è vera H1 rifiutare H0. D’altra parte se conoscessimo quale delle due ipotesi è
vera non ci sarebbe bisogno di decidere, e quindi è ovvio che questa situazione ideale è
nella pratica impossibile.
Si potrebbe allora cercare, come test ottimale, una suddivisione di C in A ed R capace di
minimizzare simultaneamente le probabilità, rispettivamente α e β, di commettere gli
errori di I e di II tipo. Purtroppo, in generale non possibile perseguire tale obiettivo, dato
che, come vedremo successivamente nella sez. 4, α e β sono collegati in maniera
inversa, cioè al diminuire di uno l’altro tende ad aumentare e viceversa.
La procedura seguita normalmente è quella di cercare il test migliore nel modo
seguente: fissato il livello di significatività α (la probabilità dell’errore di I tipo) ad un
livello “piccolo”, si cerca la suddivisione di C in A ed R che minimizza β (la probabilità
dell’errore di II tipo), ovvero, stante la relazione fra β e γ, che massimizza γ (la potenza
7
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
del test). Un tale test è detto test più potente (o test MP dall’inglese Most Powerful)
per α prefissato. I valori comunemente utilizzati per α sono 0.1, 0.05, 0.01, 0.001.
Evidentemente, la scelta di fissare α e minimizzare β, è dovuta al ruolo “asimmetrico”
che hanno i due errori, di I e di II tipo. Fissare la probabilità dell’errore di I tipo ad un
livello “piccolo” e minimizzare la probabilità di quello di II tipo presuppone il ritenere il
primo errore “più grave” rispetto al secondo. Infatti fissare α ad un livello “piccolo”
implica tenere “sotto controllo” la probabilità di incorrere nell’errore corrispondente,
mentre β, una volta trovato il test più potente, sarà sì minimo a parità di α, ma sarà pur
sempre quello che sarà, senza poterlo limitare ad un valore prefissato (salvo, come
vedremo, il poter stabilire a priori la dimensione del campione). Questo significa che,
per operare nel modo più corretto, bisognerebbe sempre porre come ipotesi nulla quella
le cui conseguenze sono peggiori in caso di errata decisione.
Fatte queste considerazioni, la teoria del test delle ipotesi si regge su diversi risultati
teorici di cui diamo soltanto i principali, ovvero:
1. Il teorema di Neyman-Pearson;
2. Il test del rapporto di massima verosimiglianza.
Il teorema di Neyman-Pearson (che diamo senza dimostrazione) fornisce una risposta
esauriente al problema, sopra menzionato, di trovare il test più potente per un prefissato
livello di significatività quando entrambe le ipotesi, la nulla e l’alternativa, sono
semplici.
Teorema 1:
Teorema di Neyman-Pearson. Siano: X una v.c. con funzione di massa
o di densità f(x; θ);
H0: θ = θ0 contro H1: θ = θ1
due ipotesi su θ entrambe semplici; α il prefissato livello di
significatività del test. Sia poi x = (x1, ..., xn) un campione estratto da X,
l’informazione da utilizzare per sottoporre a test le ipotesi indicate, e sia
L(θ) la verosimiglianza calcolata in θ sulla base di tale campione.
Allora il test più potente al livello di significatività α è individuato dalla
seguente partizione dell’universo dei campioni C:
8
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
R = {x: L(θ0)/L(θ1) < K}
A = {x: L(θ0)/L(θ1) ≥ K},
dove il valore soglia K, detto valore critico, è scelto in modo tale da
soddisfare il livello di significatività α, cioè
α = P(X ∈ R | H0) = P(X: L(θ0)/L(θ1) < K | H0).
Questo teorema, ad una prima lettura di non semplice interpretazione, richiede qualche
commento.
1. La prima cosa da notare, peraltro già evidenziata più volte, è il fatto che tale teorema
vale solo se entrambe le ipotesi, nulla e alternativa, sono semplici.
2. In secondo luogo si evidenzia il particolare rilievo che la verosimiglianza ha anche
nell’ambito del test delle ipotesi, oltre che nella stima (si veda cap. 6).
3. In terzo luogo: il teorema resta valido qualunque sia il numero (purché finito) dei
parametri caratteristici della legge di distribuzione della v.c. X; il teorema non
richiede esplicitamente l’indipendenza delle n osservazioni costituenti il campione;
il teorema può essere applicato in modo del tutto equivalente considerando la
differenza delle log-verosimiglianze invece rapporto fra le verosimiglianze. Infatti
essendo il logaritmo una trasformazione monotona crescente si ha, facendo il
logaritmo naturale di ambo i membri,
L(θ0)/L(θ1) < K
⇔
l(θ0) – l(θ1) < k,
dove l(θ) = ln L(θ) e k = ln K [si invita lo studente a dimostrare l’equivalenza fra le
due relazioni]. Il vantaggio di considerare la log-verosimiglianza è che, di norma,
quest’ultima è più facile da trattare rispetto alla verosimiglianza.
4. Infine la considerazione più rilevante dal punto di vista pratico. Ricordando che la
verosimiglianza in θ è la probabilità o densità del campione osservato x per tale
valore del parametro, il teorema stabilisce regione di rifiuto e di accettazione in base
al confronto della verosimiglianza nelle due situazioni alternative H0, in cui θ vale
θ0, e H1, in cui θ è pari a θ1. Fissata una certa soglia K (o k se si considera la
differenza fra log-verosimiglianze), anche intuitivamente appare logico accettare
quando L(θ0)/L(θ1) è superiore alla soglia, e rifiutare quando invece il rapporto è
inferiore alla soglia. Riguardo a questo, il calcolo delle due verosimiglianze, per
quanto talvolta lungo, generalmente non è un grosso problema. Il punto “spinoso”,
9
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
piuttosto, è come determinare la soglia K. Il teorema dice che K deve soddisfare la
condizione α = P(X: L(θ0)/L(θ1) < K | H0): tuttavia per poter utilizzare questa
condizione occorre che il rapporto fra le verosimiglianze L(θ0)/L(θ1) abbia una
distribuzione nota, in base alla quale sfruttare opportune tavole per ricavare K. In
generale, però, tale distribuzione non è di semplice derivazione.
Nella pratica, allora, come si può sfruttare questo teorema? Ebbene, quando, come nella
maggior parte dei casi considerati in questo corso, esistono statistiche sufficienti per il
parametro che si vuole sottoporre a test, si può dimostrare che la disuguaglianza
L(θ0)/L(θ1) < K può essere trasformata in una disuguaglianza perfettamente equivalente
del tipo T(X) < c oppure T(X) > c, cioè vale
α = P(X: L(θ0)/L(θ1) < K | H0) = P(X: T(X) < c | H0)
oppure
α = P(X: L(θ0)/L(θ1) < K | H0) = P(X: T(X) > c | H0)
a seconda di quale delle due è equivalente a quella originaria (questo aspetto è
affrontato sotto). Nelle relazioni precedenti T(X) è una statistica di cui si conosce la
distribuzione mentre c è una costante “soglia” di nuovo detta valore critico. Poiché di
T(X) si conosce la distribuzione, c può essere facilmente ricavato dalle tavole
corrispondenti sulla base delle relazioni precedenti che lo legano ad α. Per non
appesantire eccessivamente il corso, in generale non descriveremo i passaggi che da
L(θ0)/L(θ1) < K portano infine a T(X) < c oppure a T(X) > c. Ci limiteremo giusto ad un
paio di esempi, mentre nei casi successivi indicheremo soltanto la statistica test T(X) e
la corrispondente distribuzione.
Ma rispetto a questo si può dire anche di più.
•
La prima cosa che si può aggiungere è una semplice sottolineatura, decisiva però ai
fini della comprensione della teoria del test delle ipotesi: il valore critico, sia questo
K (nella versione per il rapporto fra verosimiglianze L(θ0)/L(θ1)), k (nella versione
per la differenza fra log-verosimiglianze l(θ0) – l(θ1)) o c (per la versione relativa a
T(X)) si trova da una delle condizioni
α = P(X: L(θ0)/L(θ1) < K | H0)),
α = P(X: l(θ0) – l(θ1) < k | H0)),
10
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
α = P(X: T(X) < c | H0),
α = P(X: T(X) > c | H0),
e dunque dipende dal comportamento della statistica test sotto H0. In altri termini
il confine fra regione di accettazione e regione di rifiuto si ricava, sempre,
ragionando sotto H0.
•
La seconda cosa da aggiungere, fondamentale anch’essa, è che nel caso in cui si
utilizzi T(X) la regione di rifiuto va sempre messa dalla parte dell’ipotesi
alternativa H1, cioè se θ1 < θ0 allora
R = {x: T(x) < c}
mentre se θ1 > θ0 allora
R = {x: T(x) > c}.
Quindi, riassumendo:
il valore critico c va sempre trovato ragionando sotto H0, tenendo però presente
che la regione di rifiuto sta dalla parte di H1.
•
Tutto ciò consente di evidenziare un altro aspetto importante. Le assunzioni del
teorema indicano che entrambe le ipotesi H0 e H1 devono essere semplici. In realtà
per quanto detto al termine del punto precedente, nel caso in cui si possa trasformare
α = P(X: L(θ0)/L(θ1) < K | H0)) in α = P(X: T(X) < c | H0) oppure α = P(X: T(X) > c
| H0), mantenendo l’ipotesi nulla a H0: θ = θ0 il teorema vale anche se l’ipotesi
alternativa è composta unidirezionale, cioè del tipo H1: θ > θ0 oppure H1: θ < θ0.
Infatti in questo caso non ha alcuna importanza al valore puntuale dell’ipotesi
alternativa al fine di stabilire regione di accettazione e regione di rifiuto: l’unica
cosa che conta è se H1 sta a destra oppure a sinistra di H0.
I seguenti due esempi chiariscono nella pratica quanto detto finora. [Avvertenza:
essendo i due esempi abbastanza tecnici, se ne consiglia la lettura, che deve essere
effettuata con attenzione e carta e penna alla mano, solo a chi ha una certa
dimestichezza con i passaggi algebrici.]
Esempio 1
Sia X ~ Be(p) e siano
11
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
H0: p = p0 contro H1: p = p1
due ipotesi entrambe semplici su p (nella pratica p0 e p1 sono due numeri), cosicché lo
spazio parametrico è {p0, p1}.
Considerando la differenza fra log-verosimiglianze (punto 3 precedente), allora il test
più potente al livello di significatività α è individuato, in base al teorema di NeymanPearson, dalla seguente regione di rifiuto
R = {x: l(p0) – l(p1) < k},
dove il valore critico k è determinato sulla base della distribuzione della statistica test
l(p0) – l(p1) sotto H0, dovendo soddisfare
α = P(X ∈ R | H0) = P(X: l(p0) – l(p1) < k | H0).
Allora (cap. 6, sez. 5.1.2)
n
l(p0) – l(p1) = ln p0 ∑ Xi + ln q0 (n –
i=1
n
∑
i=1
n
Xi) – ln p1 ∑ Xi – ln q1 (n –
i=1
n
∑ Xi) < k,
i=1
n
che, mettendo in evidenza la statistica sufficiente
∑ Xi, equivale a
i=1
n
[ln (p0/q0) – ln (p1/q1)]
∑ Xi + n (ln q0 – ln q1) < k,
i=1
ovvero, ragionando sulla media campionaria invece che sulla somma dei successi, a
[ln (p0/q0) – ln (p1/q1)] n X + n (ln q0 – ln q1) < k.
A questo punto, il passaggio successivo dipende da quale è maggiore fra le due ipotesi,
se la nulla o l’alternativa. Infatti:
•
se p1 < p0 allora ln (p0/q0) – ln (p1/q1) > 0 e quindi
X < [k/n – ln q0 + ln q1]/[ln (p0/q0) – ln (p1/q1)] = c;
•
se p1 > p0 allora ln (p0/q0) – ln (p1/q1) < 0 e quindi
X > [k/n – ln q0 + ln q1]/[ln (p0/q0) – ln (p1/q1)] = c.
Possiamo notare che si verifica proprio quanto detto in precedenza: la disuguaglianza
sulle verosimiglianze (o sulle log-verosimiglianze) è stata trasformata in una
disuguaglianza equivalente relativa ad una particolare statistica di cui si conosce la
distribuzione, nel nostro caso X ~ BiRe(n, p); quale delle due disuguaglianze vale
12
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
dipende da dove sta l’ipotesi alternativa rispetto alla nulla: se p1 < p0 allora vale quella
con < c, e quindi la regione di rifiuto è
R = {x: x < c};
se p1 > p0 allora vale quella con > c, e quindi la regione di rifiuto è
R = {x: x > c};
In ogni caso la regione di rifiuto sta sempre, rispetto a c, dalla parte dell’alternativa.
Il valore critico c può essere ricavato direttamente dalla condizione sul livello di
significatività, cioè:
•
se p1 < p0, c è tale che
α = P(X ∈ R | H0) = P( X < c | H0);
•
se p1 > p0, c è tale che
α = P(X ∈ R | H0) = P( X > c | H0);
senza quindi dover calcolare l’espressione c = [k/n – ln q0 + ln q1]/[ln (p0/q0) – ln
(p1/q1)] (la determinazione pratica di tale valore critico sarà affrontata successivamente).
Esempio 2
Sia X ~ N(µ, σ2) con σ2 nota, e siano
H0: µ = µ0 contro H1: µ = µ1
due ipotesi entrambe semplici su µ (nella pratica µ0 e µ1 sono numeri), cosicché lo
spazio parametrico è {µ0, µ1}.
Considerando la differenza fra log-verosimiglianze (punto 3 precedente), allora il test
più potente al livello di significatività α è individuato, in base al teorema di NeymanPearson, dalla seguente regione di rifiuto
R = {x: l(µ0) – l(µ1) < k},
dove il valore critico k è determinato sulla base della distribuzione della statistica test
l(µ0) – l(µ1) sotto H0, dovendo soddisfare
α = P(X ∈ R | H0) = P(X: l(µ0) – l(µ1) < k | H0).
Allora (cap. 6, sez. 5.1.4)
l(µ0) – l(µ1) =
–
n
n
1
ln(2π) – lnσ2 –
2
2
2σ 2
n
∑
i=1
(Xi – µ0)2 +
n
n
1
ln(2π) + lnσ2 +
2
2
2σ 2
13
n
∑ (Xi – µ1)2 < k,
i=1
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
che dopo le opportune semplificazioni diviene
n
1
2σ
2
∑ [(Xi – µ1)2 – (Xi – µ0)2] < k.
i=1
Svolgendo il quadrato e facendo alcune semplificazioni si ottiene
1
[n( µ12 – µ 02 ) + 2(µ0 – µ1)
2σ 2
n
∑ Xi] < k,
i=1
equivalente a
1
2σ
2
[n( µ12 – µ 02 ) + 2(µ0 – µ1)n X ] < k.
A questo punto, il passaggio successivo dipende da quale è maggiore fra le due ipotesi,
se la nulla o l’alternativa. Infatti:
•
se µ1 < µ0 allora µ0 – µ1 > 0 e quindi
X < [2σ2k/n – ( µ12 – µ 02 )]/[2(µ0 – µ1)] = c;
•
se µ1 < µ0 allora µ0 – µ1 < 0 e quindi
X > [2σ2k/n – ( µ12 – µ 02 )]/[2(µ0 – µ1)] = c.
Anche in questo caso si verifica quanto detto in precedenza: la disuguaglianza sulle
verosimiglianze (o sulle log-verosimiglianze) è stata trasformata in una disuguaglianza
equivalente relativa ad una particolare statistica di cui si conosce la distribuzione, nel
nostro caso X ~ N(µ,σ2/n); quale delle due disuguaglianze vale dipende da dove sta
l’ipotesi alternativa rispetto alla nulla: se µ1 < µ0 allora vale quella con < c, e quindi la
regione di rifiuto è
R = {x: x < c};
se µ1 > µ0 allora vale quella con > c, e quindi la regione di rifiuto è
R = {x: x > c}.
In ogni caso la regione di rifiuto sta sempre, rispetto a c, dalla parte dell’alternativa.
Il valore critico c può essere ricavato direttamente dalla condizione sul livello di
significatività, cioè:
•
se µ1 < µ0, c è tale che
α = P(X ∈ R | H0) = P( X < c | H0);
14
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
•
se µ1 < µ0, c è tale che
α = P(X ∈ R | H0) = P( X > c | H0);
senza quindi dover calcolare l’espressione c = [2σ2k/n – ( µ12 – µ 02 )]/[2(µ0 – µ1)] (la
determinazione pratica di tale valore critico sarà affrontata successivamente).
Riassumendo quanto detto finora, il teorema di Neyman-Pearson consente di derivare la
migliore regione critica soltanto quando le ipotesi nulla e alternativa sono semplici
oppure, per certi particolari modelli, quando l’ipotesi nulla è semplice e l’ipotesi
alternativa è composta unilaterale.
Quando H0 o H1 o entrambe le ipotesi sono composte non esiste un teorema analogo. E’
stata comunque suggerita, sempre da Neyman e Pearson, una procedura generale per la
individuazione della regione critica che dà usualmente buoni risultati: il test del
rapporto di verosimiglianza (in inglese likelihood ratio test).
Definizione 3: Definizione di test del rapporto di verosimiglianza. Siano: X una v.c.
con funzione di massa o di densità f(x; θ);
H0: θ ∈ Θ0 contro H1: θ ∈ Θ1
due ipotesi su θ (una o entrambe composte); α il prefissato livello di
significatività del test. Sia poi x = (x1, ..., xn) un campione estratto da X,
l’informazione da utilizzare per sottoporre a test le ipotesi indicate, e sia
L(θ) la verosimiglianza calcolata in θ sulla base di tale campione.
Allora il test del rapporto di verosimiglianza si basa sul rapporto fra il
massimo della verosimiglianza sotto il vincolo di H0, L( θˆ0 ) = max L(θ ) ,
θ ∈Θ0
e il massimo della verosimiglianza libero, L( θˆ ) = max L(θ ) . In
θ ∈Θ
particolare il test del rapporto di massima verosimiglianza al livello di
significatività α è individuato dalla seguente partizione dell’universo dei
campioni C:
R = {x: r = L( θˆ0 )/L( θˆ ) < K}
A = {x: r = L( θˆ0 )/L( θˆ ) ≥ K},
15
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
dove il valore soglia K è scelto in modo tale da soddisfare il livello di
significatività α, cioè
α = P(X ∈ R | H0) = P(X: r = L( θˆ0 )/L( θˆ ) < K | H0).
Anche questa definizione richiede alcuni commenti.
1. Per prima cosa, si evidenzia di nuovo il ruolo fondamentale del concetto di
verosimiglianza.
2. In seconda battuta è opportuno chiarire la “ratio” di questa procedura di test. La
logica del test del rapporto di verosimiglianza è quella di rapportare come il
campione “è spiegato” dall’ipotesi H0 (il massimo vincolato L( θˆ0 ) = max L(θ ) al
θ ∈Θ0
numeratore) rispetto a come “è spiegato” senza imporre alcun vincolo (il massimo
libero L( θˆ ) =
max L(θ ) al denominatore). Notato che tale rapporto è
θ ∈Θ
necessariamente compreso fra 0 e 1 (le verosimiglianze sono sempre non negative e
il massimo vincolato non può essere maggiore del massimo libero!), si intuisce che
se r è vicino ad 1 allora la spiegazione fornita sotto H0 si avvicina a quella libera e
l’ipotesi H0 sarà tendenzialmente da accettare; viceversa se r è piccolo allora la
spiegazione fornita sotto H0 è significativamente peggiore di quella libera e l’ipotesi
H0 sarà tendenzialmente da rifiutare.
3. Come terza cosa si fa notare che, analogamente al teorema di Neyman-Pearson, il
test del rapporto di verosimiglianza può essere anche applicato con riferimento alle
log-verosimiglianze, che come detto altre volte sono spesso un po’ più semplici da
calcolare. Infatti, essendo il logaritmo naturale una trasformazione monotona
crescente, il logaritmo del massimo (della verosimiglianza, sia questa libera che
vincolata) è uguale al massimo del logaritmo (e quindi al massimo della logverosimiglianza). Di conseguenza, considerando la disuguaglianza che definisce la
regione di rifiuto R abbiamo
r = L( θˆ0 )/L( θˆ ) < K
⇔
ln r = l( θˆ0 ) – l( θˆ ) < k,
dove l( θˆ0 ) = max l (θ ) e l( θˆ ) = max l (θ ) sono rispettivamente il massimo vincolato
θ ∈Θ0
θ ∈Θ
(sotto H0) e il massimo libero della log-verosimiglianza e k = ln K [di nuovo si invita
lo studente a dimostrare l’equivalenza delle due relazioni precedenti]. Si fa notare
16
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
che, poiché il rapporto fra i massimi delle verosimiglianze r è sempre compreso in
[0, 1], la differenza fra i massimi delle log-verosimiglianze è sempre ≤ 0.
4. La costante che discrimina se l’ipotesi nulla è da accettare o da rifiutare è il valore
critico, K per il rapporto delle verosimiglianze, k per la differenza delle logverosimiglianze. Ovviamente poiché r è compreso fra 0 ed 1 anche K sarà sempre
inferiore a 1, così come essendo ln r ≤ 0 anche k sarà sempre negativo. Il valore di K
deve essere ricavato in modo da rispettare il livello di significatività fissato, cioè
α = P(X ∈ R | H0) = P(X: r = L( θˆ0 )/L( θˆ ) < K | H0)
e un discorso analogo vale per k
α = P(X ∈ R | H0) = P(X: ln r = l( θˆ0 ) – l( θˆ ) < k | H0).
D’altra parte per ricavare K o k occorre conoscere la distribuzione campionaria di r
= L( θˆ0 )/L( θˆ ) o di ln r = l( θˆ0 ) – l( θˆ ) in modo da sfruttare opportune tavole per
ricavare K o k. In generale, però, tale distribuzione non è di semplice derivazione. E
allora si aprono due situazioni alternative:
-
Se, dopo una serie di passaggi, si riesce a semplificare la disuguaglianza
L( θˆ0 )/L( θˆ ) < K o l’equivalente l( θˆ0 ) – l( θˆ ) < k in modo da ricondurla ad una
disuguaglianza perfettamente equivalente relativa ad una statistica la cui
distribuzione è nota (operazione analoga a quanto visto in precedenza
relativamente al teorema di Neyman-Pearson e che richiede la presenza di
statistiche sufficienti), allora conviene procedere per questa strada e la
distribuzione della statistica test che si trova consente l’esatta derivazione del
valore critico;
-
Se invece non è possibile ricondursi ad una disuguaglianza equivalente per una
grandezza la cui distribuzione è nota (e questo è il caso più frequente nella
pratica, anche se “raro” in questo corso) allora non rimane che affidarsi alla
distribuzione asintotica del rapporto di massima verosimiglianza r. Sotto
condizioni di regolarità abbastanza generali si può infatti dimostrare che per n
abbastanza grande, la variabile casuale –2 lnr, ha approssimativamente una
distribuzione del tipo χ2(v), dove ν rappresenta il numero di vincoli di
uguaglianza puntuali sui parametri specificati da H0. In simboli
(–2 lnr = –2 [l( θˆ0 ) – l( θˆ )] | H0) ≈ χ2(v).
17
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
In tal caso, poiché la regione di rifiuto è definita da r < K o da ln r < ln K, allora
r<K
⇔
ln r < ln K
⇔
–2 ln r > –2 ln K,
per cui in base alla distribuzione asintotica di –2 lnr dovremo sempre rifiutare a
destra del valore critico trovato in base alle tavole della χ2(v). Il fatto che la
distribuzione asintotica si riferisca alla v.c. lnr è un’altra ragione per cui spesso
si utilizza la log-verosimiglianza in luogo della verosimiglianza.
Il test del rapporto di verosimiglianza gode anche di particolari proprietà.
Infatti si dimostra che nei casi in cui esiste la migliore regione critica, cioè quella che a
parità di livello di significatività α massimizza la potenza γ, il test del rapporto di
verosimiglianza riesce a individuarla. Ad esempio, nelle condizioni del teorema di
Neyman-Pearson il test del rapporto di verosimiglianza riesce ad individuare la
medesima regione di rifiuto del teorema.
Si dimostra inoltre che se esiste un test uniformemente più potente (test UMP
dall’inglese Uniformly Most Powerful), cioè un test che, relativamente ad una data
ipotesi nulla semplice H0 e per un prefissato livello di significatività α, minimizza la
probabilità β dell’errore di II tipo qualunque sia la specificazione della ipotesi
alternativa composta H1, esso è un test del rapporto di verosimiglianza.
3. Esempio X ~ N(µ, σ2): test su µ con σ2 nota
In questa sezione si illustra come sottoporre a test alcune ipotesi sul parametro media µ
relativamente al modello Normale con varianza nota. Come detto altre volte, questo
modello non è di grande interesse da un punto di vista operativo in quanto la varianza è
generalmente una quantità incognita. Tuttavia è utile descriverlo e apprenderlo con cura,
sia perché costituisce il prototipo degli esempi che seguiranno (se si capisce questo gli
altri diventano “banali”) sia perché consente di precisare i concetti già esposti e di
illustrarne di nuovi.
Sia allora X ~ N(µ, σ2) con σ2 nota. Si vuole sottoporre a test un’ipotesi su µ, al livello
di significatività α sulla base del c.c.s. x = (x1, …, xn).
18
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
a) Caso H0: µ = µ0 contro H1: µ = µ1 > µ0
Questo caso, in cui µ0 e µ1 sono due numeri di cui il secondo maggiore del primo, è
stato trattato nell’Esempio 2 discutendo del teorema di Neyman-Pearson. Essendo le
due ipotesi entrambe semplici, il test migliore è individuato dal teorema, la cui
applicazione porta:
•
all’utilizzo della statistica test X ;
•
a porre la regione di rifiuto dalla parte dell’ipotesi alternativa, cioè R = {x: x > c};
•
a scegliere il valore critico c in base, contemporaneamente, al livello di
significatività α prefissato e alla distribuzione della statistica test sotto H0, cioè α =
P(X ∈ R | H0) = P( X > c | H0).
Nell’Esempio 2 Avevamo rimandato la ricerca del valore critico c ed ora è il momento
di affrontarla.
Poiché in base alle assunzioni dell’esempio si ha che
X ~ N(µ, σ2/n),
quando è vera H0 si ha che µ = µ0 per cui
( X | H0) ~ N(µ0, σ2/n).
Di conseguenza per trovare c si sfruttano i seguenti passaggi
α = P(X ∈ R | H0) = P( X > c | H0) = P(
X − µ0
σ/ n
>
c − µ0
σ/ n
| H0) = P(Z > z | H0),
si trova z come valore che nelle tavole della N(0, 1) lascia a destra una probabilità α, e
quindi a sinistra (1 – α), e infine si calcola il valore critico c = µ0 + z σ/ n .
La regione critica è allora
R = {x: x > c = µ0 + z σ/ n },
dove z è il quantile (1 – α) della N(0, 1).
A questo punto se la media x calcolata sul campione è inferiore a c si accetta, se è
maggiore si rifiuta.
Si sottolinea che una decisione identica si poteva prendere, invece che confrontando x
col c trovato, confrontando la sua versione standardizzata
19
x − µ0
σ/ n
con lo z (che
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
possiamo chiamare z-critico) trovato dalle tavole. Infatti, in base ai passaggi visti sopra,
X > c è del tutto equivalente a
X − µ0
σ/ n
> z.
b) Caso H0: µ = µ0 contro H1: µ = µ1 < µ0
Questo caso, in cui µ0 e µ1 sono di nuovo due numeri di cui il secondo è stavolta minore
del primo, può essere risolto, sfruttando il teorema di Neyman-Pearson, in maniera del
tutto analoga al caso precedente. L’unica differenza sta nel fatto che, dovendo la regione
di rifiuto stare dalla parte dell’alternativa, abbiamo R = {x: x < c}.
Poiché di nuovo
( X | H0) ~ N(µ0, σ2/n),
per trovare c possiamo fare
α = P(X ∈ R | H0) = P( X < c | H0) = P(
X − µ0
σ/ n
<
c − µ0
σ/ n
| H0) = P(Z < z | H0),
trovare z come quantile α della N(0, 1) e calcolare il valore critico c = µ0 + z σ/ n .
La regione critica è allora
R = {x: x < c = µ0 + z σ/ n },
dove z è il quantile α della N(0, 1).
A questo punto se la media x calcolata sul campione è inferiore a c si rifiuta, se è
maggiore si accetta.
Di nuovo una decisione identica si poteva prendere, invece che confrontando x col c
trovato, confrontando la sua versione standardizzata
dalle tavole. Infatti X < c è del tutto equivalente a
x − µ0
σ/ n
X − µ0
σ/ n
con lo z-critico trovato
< z.
c) Caso H0: µ = µ0 contro H1: µ > µ0
In questo caso, l’ipotesi alternativa è composta unilaterale. Tuttavia, se si osserva il caso
a) trattato precedentemente, in cui l’alternativa era H1: µ = µ1 > µ0, si nota che nella
formulazione della regione di rifiuto R il valore dell’ipotesi alternativa non compare:
20
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
l’alternativa serve solo a stabilire in quale coda della distribuzione di ( X | H0) piazzare
la regione di rifiuto. Di conseguenza la regione critica è la stessa, cioè
R = {x: x > c = µ0 + z σ/ n },
oppure, se si decide di utilizzare la versione standardizzata,
R = {x:
x − µ0
σ/ n
> z}
dove z è il quantile (1 – α) della N(0,1).
d) Caso H0: µ = µ0 contro H1: µ < µ0
Anche in questo caso l’ipotesi alternativa è composta unilaterale e si può ripetere il
ragionamento fatto al punto precedente. Infatti, se si osserva il caso b) in cui
l’alternativa era H1: µ = µ1 < µ0, si vede che nella formulazione della regione di rifiuto
R il valore dell’ipotesi alternativa non compare: l’alternativa, lo ripetiamo, serve solo a
stabilire in quale coda della distribuzione di ( X | H0) piazzare la regione di rifiuto. Di
conseguenza la regione critica è la stessa, cioè
R = {x: x < c = µ0 + z σ/ n },
oppure, se si decide di utilizzare la versione standardizzata,
R = {x:
x − µ0
σ/ n
< z}
dove z è il quantile α della N(0,1).
e) Caso H0: µ = µ0 contro H1: µ ≠ µ0
Mentre nei due casi precedenti l’ipotesi alternativa era composta unidirezionale, adesso
è composta bidirezionale. Questo caso allora non può essere risolto ricorrendo al
teorema di Neyman-Pearson, né nella versione “base” (due ipotesi semplici) né in quella
“generalizzata” (ipotesi nulla semplice, ipotesi alternativa unidirezionale); si può però
arrivare ad una soluzione ricorrendo al test del rapporto di verosimiglianza.
Infatti, sottraendo al massimo vincolato della log-verosimiglianza sotto H0: µ = µ0 il
massimo libero della stessa log-verosimiglianza in base alle espressioni riportate nella
21
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
sez. 5.1.4 del cap. 6, si ottiene, dopo alcuni passaggi e semplificazioni, che la regione di
rifiuto è definita dalla disuguaglianza
2
1  x − µ0 
 < k,
ln r = – 
2  σ / n 
e la regione di accettazione da
2
1  x − µ0 
 ≥ k.
ln r = – 
2  σ / n 
Quest’ultima ovviamente equivale ad accettare se
– − 2k ≤
x − µ0
σ/ n
≤
− 2k .
(si ricorda che k < 0). Di nuovo, allora, ricompare la media campionaria X come
statistica test sulla base della quale prendere la decisione e, di nuovo, sotto H0 abbiamo
(
I valori critici – − 2k e
X − µ0
σ/ n
| H0) ~ N(0, 1).
− 2k , che come si può notare sono simmetrici rispetto a 0,
vanno trovati in base al livello di significatività del test:
1 – α = P(X ∈ A | H0) = P(– − 2k ≤
X − µ0
σ/ n
≤
− 2k | H0) = P(–z ≤
X − µ0
σ/ n
≤ z | H0)
dove z è il quantile (1 – α/2) della N(0, 1). Allora la regione di accettazione è definita da
A = {x: –z ≤
x − µ0
σ/ n
≤ z },
oppure, nella versione non standardizzata ma perfettamente equivalente, da
A = {x: c1 = µ0 – z σ/ n ≤ x ≤ c2 = µ0 + z σ/ n }
dove come detto z è il quantile (1 – α/2) della N(0,1).
f) Caso H0: µ ≤ µ0 contro H1: µ > µ0
Questo caso differisce dai precedenti in quanto l’ipotesi nulla non è di tipo puntuale.
Tuttavia può essere ricondotto al caso c) semplicemente trasformando l’ipotesi nulla in
H0: µ = µ0. La ragione è che se si sostituisce l’ipotesi nulla originaria con quella indicata
si ottiene la situazione peggiore, dal punto di vista della potenza del test, rispetto a
22
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
qualsiasi altra situazione in cui, sotto H0, µ sia inferiore a µ0. Maggiori dettagli su
questo saranno forniti nella sez. 4 quando, appunto, parleremo più diffusamente della
potenza di un test.
g) Caso H0: µ ≥ µ0 contro H1: µ < µ0
Questo caso può essere trattato con un ragionamento esattamente analogo a quello
precedente. [Si consiglia allo studente di ricostruirne i dettagli per conto proprio].
Per mettere in pratica quanto illustrato consideriamo i seguenti esempi numerici.
Esempio 3
Una fabbrica di lampadine afferma che i propri prodotti hanno una durata media di
almeno 1000 ore e come acquirenti si vuole verificare l'affermazione. Sottoponendo a
prova un campione casuale di 100 lampadine si riscontra una durata media di 970 ore.
Sapendo che la varianza della durata risulta essere σ2 = 6400 ore2, cosa si può
concludere riguardo all'affermazione ad un livello di significatività del 5%?
Il problema di verifica l'ipotesi da risolvere è
H0: µ ≥ 1000 contro H1 : µ < 1000.
D'altra parte, per effettuare in pratica questo test è opportuno correggere l'ipotesi nulla
secondo quanto indicato nel precedente caso g), ovvero
H0: µ = 1000 contro H1 : µ < 1000.
Ipotizzando la Normalità della durata delle lampadine, basandoci sulla teoria possiamo
utilizzare come v.c. test X , la cui distribuzione, essendo nota la varianza, è data da
X −µ
σ/ n
∼ N(0, 1).
La regione di rifiuto R va determinata, in base al livello di significatività, considerando
la distribuzione della v.c. test sotto H0 mettendo α ed R dalla parte di H1:
0.05 = P(X ∈ R | H0) = P(
23
X − µ0
σ/ n
< z | H0).
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
Dalle tavole si trova z = –1.645 come quantile 0.05 della N(0, 1), per cui la regione di
rifiuto per la statistica Z è R = {x:
x − µ0
σ/ n
=
970 − 1000
6400 / 100
x − µ0
σ/ n
< –1.645}. Lo z-empirico risulta invece
= –3.75, che confrontato con la regione di rifiuto porta a
rifiutare H0 al livello di significatività del 5% e a concludere quindi che la durata media
delle lampadine è significativamente inferiore a quella indicata.
Esempio 4
Un'impresa afferma che le batterie da essa prodotte hanno una durata media di 22 ore e
che la loro variabilità, misurata attraverso lo scostamento quadratico medio, è pari a 3
ore. Un campione di 9 batterie viene sottoposto a prova; tale prova fornisce una durata
media di 20 ore. Ipotizzando per la popolazione una variabilità pari a quella dichiarata
dalla casa produttrice e la Normalità della distribuzione, si vuol verificare la validità
dell'affermazione fatta dall'impresa.
Dobbiamo allora sottoporre a test
H0: µ = 22 contro H1: µ ≠ 22.
Grazie all'ipotesi di Normalità, di nuovo, basandoci sulla teoria possiamo utilizzare
come v.c. test X , la cui distribuzione, essendo nota la varianza, è data da
X −µ
σ/ n
∼ N(0, 1).
La regione di rifiuto R va determinata, in base al livello di significatività del 5%,
considerando la distribuzione della v.c. test sotto H0 e mettendo R su entrambe le code
(α/2 a sinistra, α /2 a destra):
1 – 0.05 = P(X ∈ A | H0) = P(–z ≤
X − µ0
σ/ n
≤ z | H0).
Dalle tavole si trova z = 1.96 come quantile 0.975 della N(0, 1), per cui la regione di
accettazione per la statistica Z è A = {x: –1.96 ≤
invece
x − µ0
σ/ n
=
20 − 22
3/ 9
x − µ0
σ/ n
≤ 1.96}. Lo z-empirico risulta
= –2, che confrontato con la regione di accettazione porta a
24
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
rifiutare H0 al livello di significatività del 5% e a concludere quindi che la durata media
delle lampadine è significativamente diversa da quella indicata.
4. La potenza del test
Finora abbiamo focalizzato l’attenzione sulla costruzione del test, cioè sulla divisione
dello spazio campionario in regione di accettazione e di rifiuto, in modo da sfruttare al
meglio le informazioni campionarie a disposizione. Questo significa, parafrasando il
significato del teorema di Neyman-Pearson e le proprietà del test del rapporto di
verosimiglianza, che a parità di livello di significatività la potenza ottenuta è la più alta
possibile (nelle condizioni del teorema) o comunque buona. Adesso però è venuto il
momento di analizzare in dettaglio come determinare la potenza di un test e
approfondire gli elementi che ne determinano il valore.
Per determinare la potenza di un test occorre anzitutto ricordarne la definizione. La
potenza di un test è la probabilità, quando è vera H1, di fare la cosa giusta, cioè di
rifiutare:
γ = P(X ∈ R | H1).
Se l’ipotesi alternativa è semplice, il calcolo della potenza è banale: basta seguire quanto
prescritto dalla definizione.
Prendiamo come riferimento il modello illustrato nella sezione precedente.
Nel caso a) H0: µ = µ0 contro H1: µ = µ1 > µ0 allora, ricordando che la regione di rifiuto
è data in questa situazione da
R = {x: x > c = µ0 + z σ/ n } = {x:
x − µ0
σ/ n
> z},
dove z è il quantile (1 – α) della N(0, 1), e che sotto H1
( X | H1) ~ N(µ1, σ2/n),
abbiamo
γ = P(X ∈ R | H1) = P( X > c | H1) = P(
X − µ1
σ/ n
25
>
c − µ1
σ/ n
| H1) = P(Z >
c − µ1
σ/ n
| H1).
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
Si evidenzia anche che se si fosse calcolata la potenza a partire dall’altro modo di
esprimere la regione critica, cioè
γ = P(X ∈ R | H1) = P(
X − µ0
σ/ n
> z | H1),
per procedere al calcolo occorre prima togliere la standardizzazione rispetto alla
distribuzione sotto H0 (che risulta “sbagliata” sotto H1) e poi standardizzare di nuovo in
base alla distribuzione sotto H1, riportandosi di fatto al calcolo fatto sopra [si invita lo
studente a fare i passaggi].
Analogamente, nel caso b) H0: µ = µ0 contro H1: µ = µ1 < µ0 , ricordando che la regione
di rifiuto è data in questa situazione da
R = {x: x < c = µ0 + z σ/ n } = {x:
x − µ0
σ/ n
< z}
dove z è il quantile α della N(0, 1) e che, di nuovo,
( X | H1) ~ N(µ1, σ2/n),
abbiamo, sempre per come è distribuito X sotto H1,
γ = P(X ∈ R | H1) = P( X < c | H1) = P(
X − µ1
σ/ n
<
c − µ1
σ/ n
| H1) = P(Z <
c − µ1
σ/ n
| H1).
Di nuovo, si evidenzia anche che se si fosse calcolata la potenza a partire dall’altro
modo di esprimere la regione critica, cioè
γ = P(X ∈ R | H1) = P(
X − µ0
σ/ n
< z | H1),
per procedere al calcolo occorre prima togliere la standardizzazione rispetto alla
distribuzione sotto H0 (che risulta “sbagliata” sotto H1) e poi standardizzare di nuovo in
base alla distribuzione sotto H1, riportandosi di fatto al calcolo fatto sopra [si invita lo
studente a fare i passaggi].
Sostituendo i valori di c = µ0 + zσ/ n , µ1, σ, n e calcolando la probabilità in oggetto
mediante le tavole si ottiene la potenza del test.
Si nota immediatamente che, se da una parte il valore di µ1 non ha alcuna importanza
nello stabilire regione di accettazione e regione di rifiuto (se non per il fatto di stare a
26
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
destra o a sinistra di H0), la specificazione dell’ipotesi è invece determinate per la
potenza del test, come si può intuire dalla definizione.
Si nota anche che nel determinare la potenza del test non ha alcuna importanza il valore
campionario della statistica test. Detto in altre parole la potenza di un test può essere
calcolata “a tavolino”, dato che allo scopo il campione non serve assolutamente.
Sostituendo l’espressione di c = µ0 + zσ/ n e facendo qualche semplificazione, la
potenza del test nei due casi precedenti può essere espressa: in a), in cui H1: µ = µ1 > µ0,
da
γ = P(Z >
µ 0 − µ1
+ z1 – α | H1),
σ/ n
e in b), in cui H1: µ = µ1 < µ0, da
γ = P(Z <
µ 0 − µ1
+ z α | H1).
σ/ n
Anche se riferite all'esempio in oggetto, le formule di cui sopra consentono alcune
precisazioni che hanno portata generale. In particolare l’espressione della potenza mette
in evidenza le determinati fondamentali del suo valore (per semplicità commentiamo la
formula relativa al caso b, con l’avvertenza che considerazioni del tutto speculari
possono essere ripetute per a):
1. Il livello di significatività, nel senso che all’aumentare di α aumenta anche la
potenza γ. Infatti, a parità di altre condizioni, l’aumento di α fa aumentare zα che a
sua volta fa aumentare γ = P(Z <
µ 0 − µ1
+ zα | H1). Questo si può vedere anche
σ/ n
graficamente dalla Fig. 2: l’incremento di α (probabilità dell’errore di I tipo),
comporta un allargamento della regione di rifiuto che a sua volta determina un
aumento della potenza del test e una riduzione di β.
2. La specificazione dell’ipotesi alternativa, nel senso che all’aumentare della
distanza di H1 da H0 aumenta anche la potenza γ. Infatti, a parità di altre
condizioni, l’aumento della distanza fra le due ipotesi fa aumentare µ0 – µ1
(ricordiamo che, nel caso b, µ1 < µ0), quindi fa aumentare
27
µ 0 − µ1
e questo infine
σ/ n
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
fa accrescere γ = P(Z <
µ 0 − µ1
+ zα | H1). Questo si può vedere anche graficamente
σ/ n
dalla Fig. 3: la diminuzione di µ1 provoca un corrispondente spostamento a sinistra
della distribuzione di X sotto H1, comportando un aumento, sempre sotto H1, della
probabilità di stare nella regione di rifiuto e una riduzione di β.
3. La dimensione del campione, nel senso che all’aumentare di n aumenta anche la
potenza γ. Infatti, a parità di altre condizioni, l’aumento di n fa aumentare la
quantità
µ 0 − µ1
, (ricordiamo che, nel caso b, µ1 < µ0) che quindi a sua volta fa
σ/ n
µ 0 − µ1
+ zα | H1). Questo si può vedere anche graficamente
σ/ n
aumentare γ = P(Z <
dalla Fig. 4: l’aumento di n provoca una minor variabilità delle distribuzioni della
statistica test, sia sotto l’ipotesi nulla che sotto l’alternativa, che ha per effetto finale
un aumento della potenza ed una diminuzione di β.
4. La variabilità intrinseca della v.c. X, nel senso che all’aumentare di σ
diminuisce la potenza γ. Infatti, a parità di altre condizioni, l’aumento di σ fa
diminuire la quantità
µ 0 − µ1
, (ricordiamo che, nel caso b, µ1 < µ0) che a sua volta
σ/ n
fa diminuire γ = P(Z <
µ 0 − µ1
+ zα | H1). Questo si può vedere anche graficamente
σ/ n
dalla Fig. 5: l’aumento della variabilità della distribuzione di X, variabilità espressa
ad esempio dalla deviazione standard σ, determina una maggiore variabilità anche
delle distribuzioni della statistica test, sia sotto l’ipotesi nulla che sotto l’alternativa,
che ha per effetto finale una diminuzione della potenza ed un aumento di β.
L’effetto è praticamente opposto a quello provocato da un aumento della
dimensione del campione.
La determinante della potenza del test discussa al precedente punto 2 consente anche di
argomentare la soluzione adottata nei casi f) e g) dell'esempio di cui alla sez. 3 (e anche
nei casi analoghi degli esempi che seguiranno). Infatti, supponendo fissato il valore del
parametro µ sotto l'ipotesi alternativa ad un certo valore µ1, è chiaro che spostando la
nulla da µ0 verso l'interno della propria porzione di spazio campionario si ottiene
28
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
l'effetto di allontanare le due ipotesi H0 ed H1, con un conseguente aumento della
potenza rispetto al caso in cui H0: µ = µ0. Quindi, sempre tenendo presente che il livello
di significatività rimane fissato al valore α, il porre H0: µ = µ0 rappresenta la situazione
peggiore, dal punto di vista della potenza del test, rispetto ad ogni altra scelta di H0
all'interno della sua porzione di spazio parametrico. Una situazione potremmo dire
prudenziale, di cautela.
Queste quattro determinanti della potenza di un test, che abbiamo commentato con
riferimento all’esempio illustrato, hanno come già detto una validità generale, che
prescinde dall’esempio considerato. Inoltre, relativamente alle ultime tre possiamo
anche individuare una filosofia di fondo: più le distribuzioni della statistica test sotto H0
e sotto H1 sono sovrapposte, più è difficile capire se il campione (l’informazione a
disposizione per decidere) proviene da H0 o da H1. Pertanto, tutti i fattori che tendono a
far sovrapporre le distribuzioni della statistica test sotto la nulla e l’alternativa fanno
diminuire la potenza (e aumentare β), mentre vale l’opposto per tutti quei fattori che
tendono a separare tali distribuzioni.
Fig. 2 - Relazione tra livello di significatività e potenza del test: la potenza del test (in
verde) tende ad aumentare all’aumentare di α (in rosa).
29
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
Fig. 3 - Relazione tra specificazione dell’ipotesi alternativa e potenza del test: la potenza
del test (in verde) tende ad aumentare all’allontanarsi dell’ipotesi alternativa dalla nulla.
Fig. 4 - Relazione tra dimensione del campione e potenza del test: la potenza del test (in
verde) tende ad aumentare all’aumentare della dimensione del campione.
Fig. 5 - Relazione tra variabilità e potenza del test: la potenza del test (in verde) tende a
diminuire all’aumentare della variabilità di X.
Tornando ora al calcolo della potenza di un test, è chiaro che γ è un valore, una costante,
solo se l’ipotesi alternativa è di tipo puntuale. Quando invece H1 è composta, la potenza
può essere calcolata in corrispondenza di ogni singolo valore del parametro all’interno
30
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
della porzione di spazio parametrico relativa ad H1: in pratica, allora, occorre
trasformare H1 in tante ipotesi puntuali e calcolare la potenza in corrispondenza di
ciascuna di queste. In tal modo si ottiene una funzione, detta funzione di potenza del
test, che appunto esprime come cambia la potenza al variare dell’ipotesi alternativa. Più
in dettaglio, per costruire la funzione di potenza, allora, occorre:
1. fissare il valore del parametro sotto H1, diciamo θ;
2. effettuare il calcolo della potenza γ(θ) in corrispondenza del θ fissato;
3. riportare sul grafico il punto di coordinate (θ, γ(θ)) ottenuto;
4. continuare in questo modo per tutti i θ desiderati all'interno di Θ1 (la parte di spazio
parametrico definita da H1).
E' banale osservare che, essendo una probabilità, la potenza del test (e quindi anche la
funzione di potenza) è sempre compresa fra 0 ed 1.
I seguenti esempi proseguono l'Esempio 3 e l'Esempio 4 visti in precedenza illustrando
il calcolo della potenza del test ed alcuni concetti illustrati sopra.
Esempio 3 (continua)
Prendiamo di nuovo in esame l'esempio relativo alla durata delle lampadine, nel quale
abbiamo assunto X = "durata" ∼ N(µ,σ2 = 6400), analizzando l'ipotesi
H0: µ = 1000 contro H1: µ < 1000.
In corrispondenza di un livello di significatività del 5% abbiamo ricavato la regione di
rifiuto per la statistica Z
R = {x:
x − µ0
σ/ n
< z = –1.645},
che con riferimento alla statistica X può essere invece espressa come
R = {x: x < c = µ0 + zσ / n = 986.84}.
Determiniamo ora la potenza del test. Essendo l'ipotesi alternativa composta, per
calcolare la potenza del test occorre formulare un valore puntuale per il parametro µ
sotto H1. Fissiamo ad esempio µ1 = 990. In tal caso
γ = P(X ∈ R | H1) =
31
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
P( X < c | H1) = P(
X − µ1
σ/ n
<
c − µ1
σ/ n
| H1) = P(Z < –0.395 | H1) = 0.3464
Ovviamente, in corrispondenza di ogni valore µ inferiore a 1000 (non dimentichiamo
che il valore dell'alternativa deve essere fissato all'interno della sua porzione di spazio
parametrico) possiamo ricavare un valore per la potenza del test esattamente col
procedimento seguito sopra. In questo modo si ottiene la funzione di potenza del test,
alcuni valori della quale sono riportati nella Tabella 2 e nella Fig. 6. Se il livello di
significatività è fissato al 1% invece che al 5% il valore critico cambia (z diviene 2.326
e c diviene 981.39 [si invita lo studente a fare i conti]) e con esso cambia anche la
potenza del test, come evidenziato nella stessa tabella. Come affermato nelle pagine
precedenti, la tabella mostra che la potenza del test, a parità di altre condizioni, aumenta
all'aumentare di α ed aumenta con l'allontanarsi dell'ipotesi alternativa dalla nulla. Si
nota anche che la potenza di questo test non scende mai sotto il livello di significatività
prefissato.
La Tabella 3 e la Fig. 7 mostrano invece l’andamento della funzione di potenza del test
per due diverse dimensioni campionarie: n = 100 (la dimensione originaria) ed n = 150
(in corrispondenza del quale c diviene 989.26 [si invita lo studente a fare i conti]).
Come affermato nelle pagine precedenti, la tabella mostra che la potenza del test, a
parità di altre condizioni, aumenta all'aumentare della dimensione del campione per
effetto di una maggiore separazione delle distribuzioni della statistica test sotto la nulla
e l’alternativa. Un effetto analogo a quello che consegue da un aumento della
dimensione del campione si ha anche come conseguenza di una minor variabilità della
v.c. X. [Lo studente verifichi il comportamento della funzione di potenza nel caso in cui
σ2 sia 3600 invece dei 6400 originari mantenendo α = 0.05, n = 100 e i valori di µ
sotto H1 della tabella].
Si invita infine lo studente a verificare che per ogni altra scelta dell'ipotesi nulla, nella
versione "originaria", all'interno della propria porzione di spazio parametrico (µ ≥
1000), la potenza del test sarebbe stata, a parità di altre condizioni, più elevata di quella
ottenuta.
Valore di µ
Potenza del test
32
Potenza del test
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
sotto H1
per α = 0.05
per α = 0.01
1000
995
990
985
980
975
970
965
960
955
0.0500
0.1539
0.3465
0.5910
0.8038
0.9306
0.9824
0.9968
0.9996
1.0000
0.0100
0.0444
0.1409
0.3259
0.5689
0.7878
0.9227
0.9798
0.9962
0.9995
Tabella 2 - Andamento della potenza del test nell’Esempio 3 in corrispondenza di
diverse formulazioni dell'ipotesi alternativa per α = 0.05 e α = 0.01.
Valore di µ
sotto H1
Potenza del test
per n = 100
Potenza del test
per n = 150
1000
995
990
985
980
975
970
965
960
955
0.0500
0.1539
0.3465
0.5910
0.8038
0.9306
0.9824
0.9968
0.9996
1.0000
0.0500
0.1896
0.4546
0.7427
0.9218
0.9855
0.9984
0.9999
1.0000
1.0000
Tabella 3 - Andamento della potenza del test nell’Esempio 3 in corrispondenza di
diverse dimensioni del campione per n = 100 e n = 150.
1.2
1.2
1
1.0
0.8
0.8
0.6
0.6
0.4
0.4
0.2
0.2
0
950
960
970
980
990
1000
1010
0.0
950
960
970
980
990
1000
1010
Fig. 6 – Andamento della funzione di potenza. A sinistra: funzioni di potenza per α =
0.01 (curva in basso) e α = 0.05 (curva in alto) (valori riportati in Tabella 2). A destra:
funzioni di potenza per n = 100 (curva in basso) e n = 150 (curva in alto) (valori
riportati in Tabella 3).
33
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
Esempio 4 (continua)
Prendiamo adesso in esame l'esempio relativo alla durata delle batterie, nel quale
abbiamo assunto X = "durata" ∼ N(µ,σ = 3), analizzando le ipotesi
H0: µ = 22 contro H1: µ ≠ 22.
In corrispondenza di un livello di significatività del 5% abbiamo ricavato la regione di
accettazione per la statistica Z
A = {x: –1.96 ≤
x − µ0
σ/ n
≤ 1.96},
che con riferimento alla statistica X può essere espressa come
A = {x: c1 = µ0 – zσ / n = 20.04 ≤ x ≤ c2 = µ0 + zσ / n = 23.96}.
Calcoliamo la potenza del test. Essendo l'ipotesi alternativa composta, per calcolare la
potenza del test occorre fissare un valore puntuale per il parametro µ sotto H1. Fissiamo
ad esempio µ1 = 22.5. In tal caso
γ = P(X ∈ R | H1) = 1 – P(X ∈ A | H1) = 1 – P(c1 ≤ X ≤ c2 | H1)
= 1 – P(
c1 − µ 1
σ/ n
≤
X − µ1
σ/ n
≤
c 2 − µ1
σ/ n
| H1) = 1 – P(–2.46 ≤ Z ≤ 1.46 | H1) = 0.0791.
Ovviamente, in corrispondenza di ogni valore µ dell’ipotesi alternativa diverso da 22
possiamo ricavare un valore per la potenza del test esattamente col procedimento
seguito sopra. In questo modo è possibile di nuovo costruire la funzione di potenza del
test, alcuni valori della quale sono riportati nella Tabella 4 e in Fig. 7. Se invece di
collocare α (e quindi la regione di rifiuto) su entrambe le code avessimo posto α su una
sola delle code della distribuzione della statistica test sotto H0 (come si fa in caso di
ipotesi alternativa unilaterale – ad esempio mettendo α = 5% tutto nella coda di destra si
ottiene c = 23.64), avremmo ottenuto una potenza maggiore sulla coda dalla parte di α
(valori di µ superiori a 22) a discapito però di una potenza bassissima sull'altra coda
(valori di µ inferiori a 22), come si evince dal confronto fra la seconda e la terza
colonna della tabella. Questo aspetto è illustrato graficamente nella Fig. 8.
Si nota anche che la potenza del test utilizzato normalmente in caso di ipotesi alternativa
bilaterale (a sua volta derivante dal test del rapporto di verosimiglianza) non scende mai
sotto il livello di significatività, al contrario di quello con α su una sola coda.
34
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
Valore di µ
Sotto H1
Potenza del test bilaterale Potenza del test con α
(α/2 su entrambe le code) tutto sulla coda di destra
19.0
19.5
20.0
20.5
21.0
21.5
22.0
22.5
23.0
23.5
24.0
24.5
25.0
0.8508
0.7054
0.5160
0.3230
0.1701
0.0791
0.0500
0.0791
0.1701
0.3230
0.5160
0.7054
0.8508
0.0000
0.0000
0.0001
0.0008
0.0041
0.0160
0.0500
0.1261
0.2595
0.4424
0.6388
0.8038
0.9123
Tabella 4 - Confronto fra la potenza del test in corrispondenza di diversi modi di
collocare la regione di rifiuto per α = 0.05.
1
0.8
0.6
0.4
0.2
0
18
19
20
21
22
23
24
25
26
-0.2
Fig. 7 – Andamento della funzione di potenza del test: confronto fra la funzione di
potenza del test a 2 code (curva ad U) e ad una coda (curva ad S).
35
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
Fig. 8 – Confronto fra valori della potenza del test in caso di ipotesi alternativa
bilaterale. Blu: distribuzione statistica test sotto H0; Rosa: distribuzione statistica test
sotto H1. Per l’alternativa bidirezionale, la potenza del test è data dall’area scura; per
l’alternativa unidirezionale, la potenza del test si ottiene aggiungendo l’area chiara a
quella scura contigua. La figura a sinistra mostra una potenza del test bidirezionale
leggermente inferiore a quella del test unidirezionale; la situazione è però invertita nella
figura a destra, in cui la potenza del test unidirezionale è praticamente prossima a 0.
Con riferimento a quanto detto nei due esempi precedenti diamo la seguente definizione
di correttezza di un test.
Definizione 4 Definizione di test corretto. Un test si dice corretto se la potenza non
scende mai sotto il livello di significatività, ovvero, in simboli, se
γ ≥ α.
A questo proposito i test utilizzati nell'Esempio 3 e nell'Esempio 4 sono test corretti,
dato che la potenza non scende mai sotto α. Nell'Esempio 4 non è invece un test
corretto quello che si ottiene mettendo α tutto su una sola delle code: infatti la potenza
sulla coda opposta a quella dove è stato sistemato α scende sotto il livello di
significatività e addirittura tende a 0. Senza dimostrarlo, si evidenzia che il test di
utilizzato nell'Esempio 4, che ricordiamo è il test del rapporto di verosimiglianza, pur
non risultando il test uniformemente più potente (cioè il più potente per qualsiasi
specificazione dell’alternativa, dato che sulle singole code è “battuto” da quello con α
da una sola parte) è comunque quello uniformemente più potente nella classe dei test
corretti (test UMPU dall’inglese Uniformly Most Powerful Unbiased).
5. Il p-value
A questo punto è opportuno illustrare un concetto, peraltro criticato da alcuni, che con la
diffusione dei programmi di calcolo statistico ha avuto, nonostante le critiche, una
diffusione enorme: il p-value.
36
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
Definizione 5: Definizione di p-value. Sia T(X) la v.c. test utilizzata per sottoporre a
test un certa ipotesi nulla H0. Sia poi T(x) il valore di tale statistica
calcolato sul campione a disposizione x = (x1, …, xn).
Il p-value è la probabilità, sotto H0, di ottenere un valore di T(X) ancora
più spostato verso H1 rispetto a quello effettivamente ottenuto T(x). In
simboli
p-value = P(X: T(X) più spostato verso H1 rispetto a T(x) | H0).
Anche se non del tutto rigorosa, questa è una definizione sufficientemente generale di pvalue. Chiaramente per renderla concreta occorre applicarla a degli esempi. In generale
possiamo tuttavia formalizzare i seguenti casi:
•
Se H0: θ = θ0 contro H1: θ = θ1 > θ0 oppure contro H1: θ > θ0 allora
p-value = P(X: T(X) > T(x) | H0).
•
Se H0: θ = θ0 contro H1: θ = θ1 < θ0 oppure contro H1: θ < θ0 allora
p-value = P(X: T(X) < T(x) | H0).
•
Se H0: θ = θ0 contro H1: θ ≠ θ0 e la distribuzione della statistica test T(X) è
simmetrica rispetto a 0 allora
p-value = 2 P(X: T(X) > |T(x)| | H0).
Da questa caratterizzazione del p-value, si evince immediatamente quanto segue:
•
se il valore campionario della statistica test, T(x), coincide esattamente col valore
critico c allora il p-value coincide esattamente col livello di significatività α;
•
se il valore campionario della statistica test, T(x), sta nella regione di rifiuto, ovvero
è più spostato verso H1 rispetto a c, allora il p-value è minore del livello di
significatività α;
•
se il valore campionario della statistica test, T(x), sta nella regione di accettazione,
ovvero è meno spostato verso H1 rispetto a c, allora il p-value è maggiore del livello
di significatività α.
Tutto questo comporta che si può decidere se accettare o rifiutare l'ipotesi nulla H0 in
due modi diversi ma perfettamente equivalenti:
37
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
•
o nel modo considerato finora, cioè costruendo regione di accettazione e regione di
rifiuto e poi controllando in quale delle due regioni si trova il valore campionario
della statistica test T(x);
•
o guardando al p-value, cioè calcolando il p-value in corrispondenza del valore T(x)
della statistica test nel campione e poi confrontandolo con α: se minore si rifiuta
altrimenti si accetta.
Rispetto al modo usuale di decidere per l'accettazione o il rifiuto di H0, il calcolo del pvalue presenta un piccolo vantaggio: mediante il p-value si vede subito a quale livello di
significatività si sarebbe rifiutato. Infatti se il p-value risulta ad esempio 0.0088, si nota
immediatamente che si sarebbe rifiutato sia per α = 0.05 che per α = 0.01, mentre si
sarebbe accettato per α = 0.001. In altri termini, il p-value può essere interpretato, in
modo perfettamente speculare, o come il massimo α per il quale si sarebbe accettato o
come il minimo α per il quale si sarebbe rifiutato.
Come rovescio della medaglia si fa notare che il calcolo del p-value non è ben definito
in caso di ipotesi alternativa di tipo bilaterale quando la distribuzione della statistica test
non è simmetrica rispetto allo 0 (come invece accade per la Normale e la T-student):
questo è l'aspetto del p-value che è stato maggiormente soggetto a critica.
In ultimo occorre fare notare le differenze principali che ci sono fra il p-value e la
potenza del test. Tali differenze riguardano il fatto che mentre la potenza del test è
definita sotto H1, il p-value è definito sotto H0; in secondo luogo mentre la potenza del
test può essere calcolata "a tavolino" senza alcun riferimento al campione estratto x, il
p-value richiede come ingrediente fondamentale per il calcolo il valore campionario
della statistica test e quindi x.
Esempio 3 (continua)
Prendiamo di nuovo in esame l'esempio relativo alla durata delle lampadine, nel quale
abbiamo assunto X = "durata" ∼ N(µ,σ2 = 6400), analizzando l'ipotesi
H0: µ = 1000 contro H1: µ < 1000.
Determiniamo il p-value. In questo esempio abbiamo utilizzato la v.c. test
X −µ
σ/ n
∼ N(0, 1),
38
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
che sotto H0 (condizione nella quale occorre mettersi per trovare il p-value) diviene
(
Lo z-empirico è risultato
x − µ0
X − µ0
σ/ n
|H0 ) ∼ N(0, 1).
= –3.75, e poiché la regione di rifiuto, essendo H1: µ <
σ/ n
1000, sta nella coda di sinistra della distribuzione sotto H0 abbiamo:
p-value = P(
X − µ0
σ/ n
< –3.75 | H0) = P(Z < –3.75 | H0) = 0.00009.
Il valore ottenuto mostra che si sarebbe rifiutato H0 per α = 0.05, per α = 0.01 e anche
per α = 0.001.
Esempio 4 (continua)
Prendiamo adesso in esame l'esempio relativo alla durata delle batterie, nel quale
abbiamo assunto X = "durata" ∼ N(µ,σ = 3), analizzando le ipotesi
H0: µ = 22 contro H1: µ ≠ 22.
Determiniamo il p-value. Anche in questo esempio abbiamo utilizzato la v.c. test
X −µ
σ/ n
∼ N(0, 1),
che sotto H0 (condizione nella quale occorre mettersi per trovare il p-value) diviene
(
Lo z-empirico è risultato
x − µ0
σ/ n
X − µ0
σ/ n
|H0 ) ∼ N(0, 1).
= –2, e poiché la regione di rifiuto, essendo H1: µ ≠
22, sta in entrambe le code della distribuzione sotto H0 abbiamo:
p-value = 2 P(
X − µ0
σ/ n
> |–2| | H0) = 2 P(Z > 2 | H0) = 0.04550.
Il valore ottenuto mostra che si sarebbe rifiutato H0 per α = 0.05, mentre si sarebbe
accettato per α = 0.01 e per α = 0.001.
39
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
6. Esempio X ~ N(µ, σ2): test su µ con σ2 incognita
In questa e nelle sezioni che seguono riprendiamo l’analisi del test delle ipotesi di alcuni
modelli. Per i primi riporteremo i concetti e i passaggi in un certo dettaglio;
successivamente descriveremo solo i punti fondamentali, lasciando allo studente il
compito di completare l’analisi. [Si avverte che, analogamente al quanto fatto per la
stima per intervallo, la descrizione dei diversi esempi e casi richiede un consistente
numero di pagine. Tuttavia lo schema di ragionamento si ripete praticamente identico e
una volta assimilati i concetti fondamentali il resto diviene perfettamente logico e…
perfino banale.]
Sia allora X ~ N(µ, σ2) e supponiamo che σ2 sia incognita. Si vuole sottoporre a test
un’ipotesi su µ, al livello di significatività α sulla base del c.c.s. x = (x1, …, xn).
Lo schema di ragionamento è analogo a quello visto per l’esempio in cui abbiamo
considerato σ2 nota (sez. 3): la differenza principale consiste nel fatto che essendo σ2
incognita, anche quando le ipotesi sono puntuali esse sono necessariamente composte,
in quanto non riescono a specificare completamente la distribuzione della v.c. X.
Tuttavia, effettuando il test del rapporto di massima verosimiglianza si perviene di
nuovo alla statistica test X , che essendo σ2 incognita ha la seguente distribuzione:
X −µ
S/ n
~ T(n – 1),
dove S2 è la varianza campionaria corretta utilizzata per stimare σ2 (si veda cap. 6, sez.
5.1.4). Su questa base possiamo rapidamente affrontare i diversi casi.
a) Caso H0: µ = µ0 contro H1: µ = µ1 > µ0
In base alle assunzioni dell’esempio, si ha che quando è vera H0: µ = µ0,
(
X − µ0
S/ n
| H0) ~ T(n – 1).
40
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
Di conseguenza, dovendo rifiutare dalla parte dell’ipotesi alternativa, possiamo trovare
il valore critico c per la statistica X in base al livello di significatività sfruttando i ben
noti passaggi
α = P(X ∈ R | H0) = P( X > c | H0) = P(
dove, per come è distribuita
X − µ0
S/ n
X − µ0
S/ n
>
c − µ0
S/ n
| H0) = P(T > t | H0),
, t è il valore che nelle tavole della T(n – 1) lascia a
destra una probabilità α e quindi a sinistra (1 – α). Il valore critico è allora dato da c =
µ0 + t S/ n .
La regione critica può essere allora equivalentemente espressa nei due modi seguenti:
R = {x: x > c = µ0 + t s/ n } = {x:
x − µ0
s/ n
> t},
dove t è il quantile (1 – α) della T(n – 1).
Anche il calcolo della potenza procede in modo analogo a quanto illustrato nell’esempio
con σ2 nota. Infatti sulla base del valore critico c trovato in precedenza e tenuto conto
che sotto H1
(
X − µ1
S/ n
| H1) ~ T(n – 1),
abbiamo
γ = P(X ∈ R | H1) = P( X > c | H1) = P(
X − µ1
S/ n
>
c − µ1
S/ n
| H1) = P(T >
c − µ1
S/ n
| H1).
Questa probabilità può essere calcolata dalle tavole della T-student dopo aver
determinato
c − µ1
S/ n
. Si fa notare tuttavia che, per come è costruita la tavola della
distribuzione T, il calcolo della potenza non potrà in generale avvenire in modo
accurato, dato che i quantili sono piuttosto “radi”. Un calcolo preciso può essere fatto
via calcolatore (ad esempio con Excel).
Si evidenzia anche che se si calcolata la potenza a partire dall’altro modo di esprimere
la regione critica, cioè
γ = P(X ∈ R | H1) = P(
41
X − µ0
S/ n
> t | H1),
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
per procedere al calcolo occorre prima togliere la standardizzazione rispetto alla
distribuzione sotto H0 (che risulta “sbagliata” sotto H1) e poi standardizzare di nuovo in
base alla distribuzione sotto H1, riportandosi di fatto al calcolo fatto sopra [si invita lo
studente a fare i passaggi].
b) Caso H0: µ = µ0 contro H1: µ = µ1 < µ0
Poiché di nuovo
(
X − µ0
S/ n
| H0) ~ T(n – 1),
l’unica differenza rispetto al caso precedente sta nel fatto che, dovendo la regione di
rifiuto stare dalla parte dell’alternativa, si ha
α = P(X ∈ R | H0) = P( X < c | H0) = P(
X − µ0
S/ n
<
c − µ0
S/ n
| H0) = P(T < t | H0),
dove, per la distribuzione di tale statistica, t è il valore che nelle tavole della T(n – 1)
lascia a sinistra una probabilità α.
La regione critica può essere allora equivalentemente espressa nei due modi seguenti:
R = {x: x < c = µ0 + t s/ n } = {x:
x − µ0
s/ n
< t},
dove t è il quantile α della T(n – 1).
Il calcolo della potenza procede in maniera simile a quanto detto in precedenza [si invita
tuttavia lo studente ad effettuarlo].
c) Caso H0: µ = µ0 contro H1: µ > µ0
In questo caso, l’ipotesi alternativa è composta unilaterale. Tuttavia, se si osserva il caso
a) trattato precedentemente, in cui l’alternativa era H1: µ = µ1 > µ0, si nota che nella
formulazione della regione di rifiuto R il valore dell’ipotesi alternativa non compare.
L’alternativa serve solo a stabilire in quale coda della distribuzione di ( X | H0) piazzare
la regione di rifiuto. Di conseguenza la regione critica è la stessa, cioè
R = {x: x > c = µ0 + t s/ n } = {x:
dove t è il quantile (1 – α) della T(n – 1).
42
x − µ0
s/ n
> t}
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
d) Caso H0: µ = µ0 contro H1: µ < µ0
Anche in questo caso l’ipotesi alternativa è composta unilaterale e si può ripetere il
ragionamento fatto al punto precedente. Infatti, se si osserva il caso b) in cui
l’alternativa era H1: µ = µ1 < µ0, si vede che nella formulazione della regione di rifiuto
R il valore dell’ipotesi alternativa non compare: l’alternativa, lo ripetiamo, serve solo a
stabilire in quale coda della distribuzione di ( X | H0) piazzare la regione di rifiuto. Di
conseguenza la regione critica è la stessa, cioè
R = {x: x < c = µ0 + t s/ n } = {x:
x − µ0
s/ n
< t}
dove t è il quantile α della T(n – 1).
e) Caso H0: µ = µ0 contro H1: µ ≠ µ0
Mentre nei due casi precedenti l’ipotesi alternativa era composta unidirezionale, adesso
è composta bidirezionale. Non si può ricorrere al teorema di Neyman-Pearson ma
occorre applicare il test del rapporto di verosimiglianza. Anche in questo caso, si può
dimostrare che tale test può essere effettuato mediante la statistica test X , la cui
distribuzione sotto H0 è di nuovo data da
(
X − µ0
S/ n
| H0) ~ T(n – 1),
e che la regione di accettazione conseguente è simmetrica rispetto a 0:
1 – α = P(X ∈ A | H0) = P(–t ≤
X − µ0
S/ n
≤ t | H0)
dove t è il quantile (1 – α/2) della T(n – 1). La regione di accettazione è allora espressa
in modo equivalente da
A = {x: –t ≤
x − µ0
s/ n
≤ t } ={x: c1 = µ0 – t s/ n ≤ x ≤ c2 = µ0 + t s/ n }
dove, come detto, t è il quantile (1 – α/2) della T(n – 1).
43
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
f) Casi H0: µ ≤ µ0 contro H1: µ > µ0 e H0: µ ≥ µ0 contro H1: µ < µ0
Valgono le argomentazioni illustrate negli analoghi casi discussi nella sez. 3: occorre
trasformare l’ipotesi nulla nella corrispondente ipotesi puntuale H0: µ = µ0 ed agire di
conseguenza.
7. Esempio X ~ N(µ, σ2): test su σ2 con µ nota
Sia di nuovo X ~ N(µ, σ2) e supponiamo che µ sia nota. Si vuole sottoporre a test
un’ipotesi su σ2, al livello di significatività α sulla base del c.c.s. x = (x1, …, xn).
Lo schema di ragionamento è simile a quello riportato negli agli esempi precedenti, con
alcune varianti. L’aspetto principale da segnalare è che il test in oggetto può essere
effettuato sulla base della statistica test S *2* , la varianza campionaria per µ nota (cap. 6,
sez. 5.1.4), la cui distribuzione campionaria è data da
n S *2* /σ2 ~ χ2(n).
Su questa base possiamo affrontare i diversi casi.
a) Caso H0: σ2 = σ 02 contro H1: σ2 = σ 12 > σ 02
Questo caso, in cui σ 02 e σ 12 sono due numeri di cui il secondo maggiore del primo,
può essere trattato sulla base del teorema di Neyman-Pearson, dato che essendo µ nota
le due ipotesi sono semplici. Svolgendo il calcolo della differenza fra le logverosimiglianze si può dimostrare che il test in oggetto può essere effettuato sulla base
della statistica S *2* , la cui distribuzione campionaria è stata ricordata sopra. Sotto H0
avremo allora che
(n S *2* / σ 02 | H0) ~ χ2(n).
Dovendo rifiutare dalla parte dell’ipotesi alternativa, possiamo trovare il valore critico c
per la statistica S *2* in base al livello di significatività sfruttando i passaggi
α = P(X ∈ R | H0) = P( S*2* > c | H0) = P(n S*2* / σ 02 > nc/ σ 02 | H0) = P(χ2 > t | H0),
44
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
dove, per come è distribuito n S *2* / σ 02 , t è il valore che nelle tavole della χ2(n) lascia a
destra una probabilità α e quindi a sinistra una probabilità (1 – α). Il valore critico è
allora dato da c = t σ 02 /n.
La regione critica può essere allora equivalentemente espressa nei due modi seguenti:
R = {x: s*2* > c = t σ 02 /n} = {x: n s*2* / σ 02 > t},
dove t è il quantile (1 – α) della χ2(n).
Anche il calcolo della potenza procede in modo analogo a quanto illustrato negli esempi
precedenti. Infatti sulla base del valore critico c trovato sopra e tenuto conto che sotto
H1
(n S *2* / σ 12 | H1) ~ χ2(n),
abbiamo
γ = P(X ∈ R | H1) = P( S*2* > c | H1) = P(n S*2* / σ 12 > nc/ σ 12 | H1) = P(χ2 > nc/ σ 12 | H1).
Questa probabilità può essere calcolata dalle tavole della Chi-quadrato dopo aver
determinato nc/ σ 12 . Si fa notare tuttavia che, per come è costruita la tavola della
distribuzione Chi-quadrato, il calcolo della potenza non potrà in generale avvenire in
modo accurato, dato che i quantili sono piuttosto “radi”. Un calcolo preciso può essere
fatto via calcolatore (ad esempio con Excel).
Si evidenzia anche che se si calcola la potenza a partire dall’altro modo di esprimere la
regione critica, cioè
γ = P(X ∈ R | H1) = P(n S*2* / σ 02 > t | H1),
per procedere al calcolo occorre prima togliere il denominatore σ 02 (che risulta
“sbagliato” sotto H1) e poi dividere di nuovo per σ 12 in base alla distribuzione sotto H1,
riportandosi di fatto al calcolo fatto sopra [si invita lo studente a fare i passaggi].
b) Caso H0: σ2 = σ 02 contro H1: σ2 = σ 12 < σ 02
Poiché di nuovo
(n S *2* / σ 02 | H0) ~ χ2(n),
45
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
l’unica differenza rispetto al caso precedente sta nel fatto che, dovendo la regione di
rifiuto stare dalla parte dell’alternativa, si ha
α = P(X ∈ R | H0) = P( S*2* < c | H0) = P(n S*2* / σ 02 < nc/ σ 02 | H0) = P(χ2 < t | H0),
dove, per come è distribuito n S *2* / σ 02 , t è il valore che nelle tavole della χ2(n) lascia a
sinistra una probabilità α.
La regione critica può essere allora equivalentemente espressa nei due modi seguenti:
R = {x: s*2* < c = t σ 02 /n} = {x: n s*2* / σ 02 < t},
dove t è il quantile α della χ2(n).
Il calcolo della potenza procede in maniera simile a quanto detto in precedenza [si invita
lo studente ad effettuarlo].
c) Caso H0: σ2 = σ 02 contro H1: σ2 > σ 02
In questo caso, l’ipotesi alternativa è composta unilaterale. Tuttavia, se si osserva il caso
a) trattato precedentemente, in cui l’alternativa era H1: σ2 = σ 12 > σ 02 , si nota che nella
formulazione della regione di rifiuto R il valore dell’ipotesi alternativa non compare.
L’alternativa serve solo a stabilire in quale coda della distribuzione di ( S *2* | H0)
piazzare la regione di rifiuto. Di conseguenza la regione critica è la stessa, cioè
R = {x: s*2* > c = t σ 02 /n} = {x: n s*2* / σ 02 > t},
dove t è il quantile (1 – α) della χ2(n).
d) Caso H0: σ2 = σ 02 contro H1: σ2 < σ 02
Anche in questo caso l’ipotesi alternativa è composta unilaterale e si può ripetere il
ragionamento fatto al punto precedente. Infatti, se si osserva il caso b) in cui
l’alternativa era H1: σ2 = σ 12 > σ 02 , si vede che nella formulazione della regione di
rifiuto R il valore dell’ipotesi alternativa non compare: l’alternativa, lo ripetiamo, serve
solo a stabilire in quale coda della distribuzione di ( S *2* | H0) piazzare la regione di
rifiuto. Di conseguenza la regione critica è la stessa, cioè
46
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
R = {x: s*2* < c = t σ 02 /n} = {x: n s*2* / σ 02 < t},
dove t è il quantile α della χ2(n).
e) Caso H0: σ2 = σ 02 contro H1: σ2 ≠ σ 02
Mentre nei due casi precedenti l’ipotesi alternativa era composta unidirezionale, adesso
è composta bidirezionale. Non si può ricorrere al teorema di Neyman-Pearson ma
occorre applicare il test del rapporto di verosimiglianza. Facendo i conti del rapporto di
verosimiglianza per il caso in oggetto, si trova che la disuguaglianza che esprime la
regione di rifiuto
l( σ 02 ) – l(σ2) < k,
dopo alcuni passaggi diviene
ln( S *2* / σ 02 ) – S *2* / σ 02 < 2k/n – 1.
Questo significa che il rapporto di verosimiglianza dipende solo dalla statistica S *2* e
che, omettendo i passaggi algebrici, tale disuguaglianza equivale a rifiutare se
S *2* ≤ c1 oppure S *2* ≥ c2
e ad accettare se
c1 ≤ S *2* ≤ c2,
dove c1 e c2 sono dei valori critici che delimitano regione di accettazione e regione di
rifiuto.
Al solito per trovare c1 e c2 occorre ragionare in base alla distribuzione della statistica
test sotto l’ipotesi nulla, cioè
(n S *2* / σ 02 | H0) ~ χ2(n).
In base a questo, ragionando per semplicità sulla regione di accettazione avremo
1 − α = P(X ∈ A | H0) = P(c1 ≤ S *2* ≤ c2 | H0) = P(nc1/ σ 02 ≤ n S *2* / σ 02 ≤ nc2/ σ 02 | H0) =
P(t1 ≤ χ2 ≤ t2 | H0),
dove, per come è distribuito n S *2* / σ 02 , con riferimento alle tavole della χ2(n) t1 è il
valore che lascia a sinistra una probabilità α/2 e t2 è il valore che lascia a destra una
47
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
probabilità α/2 e quindi a sinistra una probabilità (1 – α/2). La regione di accettazione è
allora espressa in modo equivalente da
A = {x: t1 ≤ n s*2* / σ 02 ≤ t2 } ={x: c1 = t1 σ 02 /n ≤ s*2* ≤ c2 = t2 σ 02 /n }
dove, come detto, t1 è il quantile α/2 e t2 è il quantile (1 – α/2) della χ2(n).
f) Casi H0: σ2 ≤ σ 02 contro H1: σ2 > σ 02 e H0: σ2 ≥ σ 02 contro H1: σ2 < σ 02
Valgono le argomentazioni illustrate negli analoghi casi degli esempi precedenti, per cui
questo esempio si risolve trasformando l’ipotesi nulla nella corrispondente ipotesi
puntuale H0: σ2 = σ 02 ed agendo di conseguenza.
8. Esempio X ~ N(µ, σ2): test su σ2 con µ incognita
Sia di nuovo X ~ N(µ, σ2) e supponiamo ora che µ non sia nota. Si vuole sottoporre a
test un’ipotesi su σ2, al livello di significatività α sulla base del c.c.s. x = (x1, …, xn).
Lo schema di ragionamento è simile a quello visto nell’esempio precedente in cui
abbiamo considerato µ nota. La differenza principale consiste nel fatto che essendo µ
incognita, anche quando le ipotesi sono puntuali esse sono necessariamente composte,
in quanto non riescono a specificare completamente la distribuzione della v.c. X.
Effettuando il test del rapporto di massima verosimiglianza si perviene in tutti i casi che
seguono alla statistica test S2, la varianza campionaria corretta (si fa notare che, con
formule leggermente diverse ma in modo perfettamente equivalente nella sostanza, si
potrebbe utilizzare la statistica test S *2 in luogo di S2; tuttavia poiché nelle pratica è
usuale utilizzare S2 anche noi faremo riferimento a questa grandezza). Poiché, nelle
ipotesi dell’esempio, S2 ha la seguente distribuzione
(n – 1) S2/σ2 ~ χ2(n – 1),
(si veda cap. 6, sez. 5.1.4) possiamo ripetere le considerazioni e i passaggi dell’esempio
precedente in modo quasi automatico, trattando rapidamente i diversi casi.
48
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
a) Caso H0: σ2 = σ 02 contro H1: σ2 = σ 12 > σ 02
Poiché sotto H0 abbiamo
((n – 1) S2/ σ 02 | H0) ~ χ2(n – 1),
con passaggi del tutto simili a quelli effettuati nel caso corrispondente dell’esempio
precedente si ottiene che la regione critica può essere equivalentemente espressa nei due
modi seguenti:
R = {x: s2 > c = t σ 02 /(n – 1)} = {x: (n – 1) s2/ σ 02 > t},
dove t è il quantile (1 – α) della χ2(n – 1).
Anche il calcolo della potenza procede in modo analogo. [Anche se, per non
appesantire l’esposizione, ne omettiamo i dettagli si invita lo studente a trovare per
conto proprio la formula che esprime la potenza del test].
b) Caso H0: σ2 = σ 02 contro H1: σ2 = σ 12 < σ 02
Poiché di nuovo
((n – 1) S2/ σ 02 | H0) ~ χ2(n – 1),
l’unica differenza rispetto al caso precedente sta nel fatto che, dovendo la regione di
rifiuto stare dalla parte dell’alternativa, si ha
R = {x: s2 < c = t σ 02 /(n – 1)} = {x: (n – 1) s2/ σ 02 < t},
dove t è il quantile α della χ2(n – 1).
c) Caso H0: σ2 = σ 02 contro H1: σ2 > σ 02
L’ipotesi alternativa è composta unilaterale. Se si osserva il caso a) trattato
precedentemente, in cui l’alternativa era H1: σ2 = σ 12 > σ 02 , si nota che nella
formulazione della regione di rifiuto R il valore dell’ipotesi alternativa non compare. Di
conseguenza la regione critica è la stessa, cioè
R = {x: s2 > c = t σ 02 /(n – 1)} = {x: (n – 1) s2/ σ 02 > t},
49
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
dove t è il quantile (1 – α) della χ2(n – 1).
d) Caso H0: σ2 = σ 02 contro H1: σ2 < σ 02
Anche in questo caso l’ipotesi alternativa è composta unilaterale e si può ripetere il
ragionamento fatto al punto precedente. Infatti, se si osserva il caso b) in cui
l’alternativa era H1: σ2 = σ 12 < σ 02 , si vede che nella formulazione della regione di
rifiuto R il valore dell’ipotesi alternativa non compare e di conseguenza la regione
critica è la stessa, cioè
R = {x: s2 < c = t σ 02 /(n – 1)} = {x: (n – 1) s2/ σ 02 < t},
dove t è il quantile α della χ2(n – 1).
e) Caso H0: σ2 = σ 02 contro H1: σ2 ≠ σ 02
Anche quando l’ipotesi alternativa è bidirezionale si può ripetere il ragionamento fatto
nel caso analogo dell’esempio con µ nota. La regione di accettazione è allora data da
A = {x: t1 ≤ (n – 1) s2/ σ 02 ≤ t2 } = {x: c1 = t1 σ 02 /(n – 1) ≤ s2 ≤ c2 = t2 σ 02 /(n – 1)}
dove t1 è il quantile α/2 e t2 è il quantile (1 – α/2) della χ2(n – 1).
f) Casi H0: σ2 ≤ σ 02 contro H1: σ2 > σ 02 e H0: σ2 ≥ σ 02 contro H1: σ2 < σ 02
Valgono le argomentazioni illustrate negli analoghi casi degli esempi precedenti, per cui
questo esempio si risolve trasformando l’ipotesi nulla nella corrispondente ipotesi
puntuale H0: σ2 = σ 02 ed agendo di conseguenza.
9. Esempio X ~ Be(p): test su p
Sia X ~ Be(p). Si vuole sottoporre a test un’ipotesi su p, al livello di significatività α
sulla base del c.c.s. x = (x1, …, xn).
50
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
Questo esempio è stato discusso nell’Esempio 1 relativo all’utilizzo pratico del teorema
di Neyman-Pearson. In tale esempio abbiamo mostrato che se entrambe le ipotesi sono
semplici allora il test può essere effettuato in base alla statistica test X , la media
campionaria. Questo vale anche quando almeno una ipotesi è composta: infatti
l’applicazione del test del rapporto di verosimiglianza conduce di nuovo alla statistica
test X . In generale tale v.c. ha la seguente distribuzione campionaria (cap. 6 sez. 5.1.2)
X ~ BiRe(n, p) ≈ N(p, pq/n),
dove la distribuzione a sinistra è esatta mentre quella a destra vale solo se la dimensione
campionaria n è “abbastanza grande”. Nei casi che seguono, per semplicità ci
metteremo sempre in questa seconda situazione, cioè assumeremo sempre che n sia
sufficientemente grande da poter utilizzare l’approssimazione Normale.
a) Caso H0: p = p0 contro H1: p = p1 > p0
Questo caso, in cui p0 e p1 sono due numeri di cui il secondo maggiore del primo, è
stato trattato nell'Esempio 1 discutendo del teorema di Neyman-Pearson.
Quando è vera H0 si ha che p = p0, per cui
( X | H0) ≈ N(p0, p0q0/n).
Di conseguenza, ponendo al solito il valore critico c dalla parte dell’alternativa, per
trovare c si sfruttano i passaggi
α = P(X ∈ R | H0) = P( X > c | H0) = P(
X − p0
p0 q0 / n
>
c − p0
p0 q0 / n
| H0) = P(Z > z | H0),
dove z nelle tavole della N(0, 1) lascia a destra una probabilità α e quindi a sinistra (1 –
α). La regione critica è allora data, equivalentemente, da
R = {x: x > c = p0 + z
p0 q0 / n } = {x:
x − p0
p0 q0 / n
> z},
dove z è il quantile (1 – α) della N(0, 1).
Il calcolo della potenza procede in modo analogo a quanto illustrato nell’esempio del
test su µ con σ2 nota. Sulla base del valore critico c trovato in precedenza e tenuto conto
che sotto H1
( X | H1) ≈ N(p1, p1q1/n),
51
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
abbiamo
γ = P(X ∈ R | H1) = P( X > c | H1) = P(
c − p1
= P(Z >
p1q1 / n
X − p1
p1q1 / n
>
c − p1
p1q1 / n
| H1)
| H1).
Questa probabilità può essere calcolata dalle tavole della Normale dopo aver
determinato
c − p1
p1q1 / n
. Se si fosse calcolata la potenza a partire dall’altro modo di
esprimere la regione critica, cioè
γ = P(X ∈ R | H1) = P(
X − p0
p0 q0 / n
> z | H1),
per procedere al calcolo occorre prima togliere la standardizzazione rispetto alla
distribuzione sotto H0 (che risulta “sbagliata” sotto H1) e poi standardizzare di nuovo in
base alla distribuzione sotto H1, riportandosi di fatto al calcolo fatto sopra [si invita lo
studente a fare i passaggi].
b) Caso H0: p = p0 contro H1: p = p1 < p0
Ripetendo passo per passo il ragionamento fatto al caso precedente con l’unica variante
di prendere il valore critico c sull’altra coda della distribuzione sotto H0, si ottiene che la
regione critica è data da
R = {x: x < c = p0 + z
p0 q0 / n } = {x:
x − p0
p0 q0 / n
< z},
dove z è il quantile α della N(0, 1).
Anche il calcolo della potenza [di cui si lasciano allo studente i dettagli] procede in
modo analogo al caso precedente.
c) Caso H0: p = p0 contro H1: p > p0
In questo caso l’ipotesi alternativa è composta unilaterale, ma di nuovo la soluzione è la
stessa del caso a) precedente, in cui l’alternativa era H1: p = p1 > p0, dato che nella
formulazione della regione di rifiuto R il valore dell’ipotesi alternativa non compare ma
52
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
serve solo a stabilire in quale coda della distribuzione di ( X | H0) sistemarla. Di
conseguenza la regione critica è la stessa, cioè
R = {x: x > c = p0 + z
p0 q0 / n } = {x:
x − p0
p0 q0 / n
> z},
dove z è il quantile (1 – α) della N(0,1).
d) Caso H0: p = p0 contro H1: p < p0
Anche in questo caso l’ipotesi alternativa è composta unilaterale e si può ripetere il
ragionamento fatto al punto precedente. Infatti, se si osserva il caso b) in cui
l’alternativa era H1: p = p1 < p0, si vede che nella formulazione della regione di rifiuto R
il valore dell’ipotesi alternativa non compare. Di conseguenza la regione critica è la
stessa, cioè
R = {x: x < c = p0 + z
p0 q0 / n } = {x:
x − p0
p0 q0 / n
< z},
dove z è il quantile α della N(0, 1).
e) Caso H0: µ = µ0 contro H1: µ ≠ µ0
Mentre nei due casi precedenti l’ipotesi alternativa era composta unidirezionale, adesso
è composta bidirezionale. Non si può ricorrere al teorema di Neyman-Pearson ma
occorre applicare il test del rapporto di verosimiglianza. Facendo i conti del rapporto di
verosimiglianza per il caso in oggetto, si trova che la disuguaglianza che esprime la
regione di rifiuto
l(p0) – l(p) < k,
dopo alcuni passaggi diviene
n X ln(p0/ X ) + (n – n X ) ln [q0/(1 – X )] < k.
Questo significa che il rapporto di verosimiglianza dipende solo dalla statistica X e
che, omettendo i passaggi algebrici, tale disuguaglianza equivale a rifiutare se
X ≤ c1 oppure X ≥ c2
e ad accettare se
c1 ≤ X ≤ c2 ,
53
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
dove c1 e c2 sono dei valori critici che delimitano regione di accettazione e regione di
rifiuto. Al solito per trovare c1 e c2 occorre ragionare in base alla distribuzione della
statistica test sotto l’ipotesi nulla, cioè
( X | H0) ≈ N(p0, p0q0/n),
e, anche se non proprio ottimali, di norma si prendono c1 e c2 simmetrici rispetto a p0,
ottenendo la regione di accettazione
A = {x: –z ≤
x − p0
p0 q0 / n
≤ z } ={x: c1 = p0 – z
p0 q0 / n ≤ x ≤ c2 = p0 + z
p0 q0 / n }
dove z è il quantile (1 – α/2) della N(0, 1).
10. Esempio X ~ Po(λ): test su λ
Sia X ~ Po(λ). Si vuole sottoporre a test un’ipotesi su λ, al livello di significatività α
sulla base del c.c.s. x = (x1, …, xn).
L’analisi di questo esempio procede parallela a quella dell’esempio precedente. Di
nuovo infatti, sia che si ricorra al teorema di Neyman-Pearson che al test del rapporto di
verosimiglianza di dimostra che il test può essere effettuato mediante la v.c. test X , la
media campionaria. In generale tale v.c. ha la seguente distribuzione campionaria (cap.
6 sez. 5.1.3)
X ~ PoRe(nλ) ≈ N(λ, λ/n),
dove la distribuzione a sinistra è esatta mentre quella a destra vale solo se la dimensione
campionaria n è “abbastanza grande”. Nei casi che seguono, per semplicità ci
metteremo sempre in questa seconda situazione, cioè assumeremo sempre che n sia
sufficientemente grande da poter utilizzare l’approssimazione Normale.
a) Caso H0: λ = λ0 contro H1: λ = λ1 > λ0
Questo caso, in cui λ0 e λ1 sono due numeri di cui il secondo maggiore del primo, si
risolve ricorrendo al teorema di Neyman-Pearson.
Quando è vera H0 si ha che λ = λ0, per cui
( X | H0) ≈ N(λ0, λ0/n).
54
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
Di conseguenza, ponendo al solito il valore critico c dalla parte dell’alternativa, per
trovare c si sfruttano i passaggi
α = P(X ∈ R | H0) = P( X > c | H0) = P(
X − λ0
λ0 / n
c − λ0
>
λ0 / n
| H0) = P(Z > z | H0),
dove z nelle tavole della N(0, 1) lascia a destra una probabilità α e quindi a sinistra (1 –
α). La regione critica è allora data, equivalentemente, da
R = {x: x > c = λ0 + z
λ0 / n } = {x:
x − λ0
λ0 / n
> z},
dove z è il quantile (1 – α) della N(0, 1).
Il calcolo della potenza procede in modo analogo a quanto illustrato nell’esempio
precedente. Sulla base del valore critico c trovato in precedenza e tenuto conto che sotto
H1
( X | H1) ≈ N(λ1, λ1/n),
abbiamo
γ = P(X ∈ R | H1) = P( X > c | H1) = P(
X − λ1
λ1 / n
>
c − λ1
λ1 / n
| H1) = P(Z >
c − λ1
λ1 / n
| H1).
Questa probabilità può essere calcolata dalle tavole della Normale dopo aver
determinato
c − λ1
λ1 / n
. Se si fosse calcolata la potenza a partire dall’altro modo di
esprimere la regione critica, cioè
γ = P(X ∈ R | H1) = P(
X − λ0
λ0 / n
> z | H1),
per procedere al calcolo occorre prima togliere la standardizzazione rispetto alla
distribuzione sotto H0 (che risulta “sbagliata” sotto H1) e poi standardizzare di nuovo in
base alla distribuzione sotto H1, riportandosi di fatto al calcolo fatto sopra [si invita lo
studente a fare i passaggi].
55
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
b) Caso H0: λ = λ0 contro H1: λ = λ1 < λ0
Ripetendo passo per passo il ragionamento fatto al caso precedente con l’unica variante
di prendere il valore critico c sull’altra coda della distribuzione sotto H0, si ottiene che la
regione critica è data da
R = {x: x < c = λ0 + z
λ0 / n } = {x:
x − λ0
λ0 / n
< z},
dove z è il quantile α della N(0, 1).
Anche il calcolo della potenza [di cui si lasciano allo studente i dettagli] procede
analogo a quello del caso precedente.
c) Caso H0: λ = λ0 contro H1: λ > λ0
In questo caso l’ipotesi alternativa è composta unilaterale, ma di nuovo la soluzione è la
stessa del caso a) precedente, in cui l’alternativa era H1: λ = λ1 > λ0, dato che nella
formulazione della regione di rifiuto R il valore dell’ipotesi alternativa non compare ma
serve solo a stabilire in quale coda della distribuzione di ( X | H0) sistemarla. Di
conseguenza la regione critica è la stessa, cioè
R = {x: x > c = λ0 + z
λ0 / n } = {x:
x − λ0
λ0 / n
> z},
dove z è il quantile (1 – α) della N(0,1).
d) Caso H0: λ = λ0 contro H1: λ < λ0
Anche in questo caso l’ipotesi alternativa è composta unilaterale e si può ripetere il
ragionamento fatto al punto precedente. Infatti, se si osserva il caso b) in cui
l’alternativa era H1: λ = λ1 < λ0, si vede che nella formulazione della regione di rifiuto R
il valore dell’ipotesi alternativa non compare. Di conseguenza la regione critica è la
stessa, cioè
R = {x: x < c = λ0 + z
λ0 / n } = {x:
dove z è il quantile α della N(0, 1).
56
x − λ0
λ0 / n
< z},
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
e) Caso H0: λ = λ0 contro H1: λ ≠ λ0
Mentre nei due casi precedenti l’ipotesi alternativa era composta unidirezionale, adesso
è composta bidirezionale. Non si può ricorrere al teorema di Neyman-Pearson ma
occorre applicare il test del rapporto di verosimiglianza. Facendo i conti del rapporto di
verosimiglianza per il caso in oggetto, si trova che la disuguaglianza che esprime la
regione di rifiuto
l(λ0) – l(λ) < k,
dopo alcuni passaggi diviene
n X ln(λ0/ X ) – n(λ0 – X ) < k.
Questo significa che il rapporto di verosimiglianza dipende solo dalla statistica X e
che, omettendo i passaggi algebrici, tale disuguaglianza equivale a rifiutare se
X ≤ c1 oppure X ≥ c2
e ad accettare se
c1 ≤ X ≤ c2 ,
dove c1 e c2 sono dei valori critici che delimitano regione di accettazione e regione di
rifiuto. Al solito per trovare c1 e c2 occorre ragionare in base alla distribuzione della
statistica test sotto l’ipotesi nulla, cioè
( X | H0) ≈ N(λ0, λ0/n),
e, anche se non proprio ottimali, di norma si prendono c1 e c2 simmetrici rispetto a λ0,
ottenendo la regione di accettazione
A = {x: –z ≤
x − λ0
λ0 / n
≤ z } = {x: c1 = λ0 – z
λ 0 / n ≤ x ≤ c2 = λ 0 + z
λ0 / n }
dove z è il quantile (1 – α/2) della N(0, 1).
11. Esempio X ~ N(µX,
σ X2 ),
Y ~ N(µY,
σ Y2 )
indipendenti:
test per µX − µY con σ X2 e σ Y2 note
Siano X ~ N(µX, σ X2 ) e Y ~ N(µY, σ Y2 ) due v.c. indipendenti con σ X2 e σ Y2 note. Si
vuole sottoporre a test un’ipotesi su µX − µY, al livello di significatività α sulla base dei
c.c.s. x = (x1, …, xm) e y = (y1, …, yn).
57
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
Risparmiando per brevità i dettagli tecnici, un’ipotesi su µX − µY può essere testata
utilizzando come v.c. test X – Y , che nelle assunzioni dell’esempio è distribuita nel
modo seguente:
X – Y ~ N(µX − µY, σ X2 /m + σ Y2 /n).
Poiché l’ipotesi nulla di norma considerata in questo esempio è
H0: µX − µY = 0,
faremo riferimento a questa situazione, avvertendo però che se al posto dello 0 c’è una
qualsiasi altra costante, il test può essere effettuato in modo del tutto analogo
sostituendo a 0 la costante corrispondente.
Allora sotto H0, l’ipotesi sotto la quale occorre mettersi per trovare la regione di rifiuto
sulla base del livello di significatività α, abbiamo
( X – Y | H0) ~ N(0, σ X2 /m + σ Y2 /n).
A questo punto l’analisi procede in modo esattamente analogo alla situazione di cui alla
sez. 3, in cui si vuole sottopone a test un’ipotesi sulla media in corrispondenza di una
varianza nota: basta considerare X – Y in blocco come v.c. test ed operare in modo
analogo a quanto fatto nell’esempio indicato per i vari casi.
12. Esempio X ~ N(µX,
σ X2 ),
Y ~ N(µY,
σ Y2 )
indipendenti:
test per µX − µY con σ X2 e σ Y2 incognite
Siano X ~ N(µX, σ X2 ) e Y ~ N(µY, σ Y2 ) due v.c. indipendenti con σ X2 e σ Y2 non note. Si
vuole sottoporre a test un’ipotesi su µX − µY, al livello di significatività α sulla base dei
c.c.s. x = (x1, …, xm) e y = (y1, …, yn). Di nuovo consideriamo che l’ipotesi nulla sia
H0: µX − µY = 0,
avvertendo che se al posto dello 0 c’è una qualsiasi altra costante, il test può essere
effettuato in modo del tutto analogo sostituendo a 0 la costante corrispondente.
58
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
Risparmiando di nuovo i dettagli tecnici, anche in questo caso un’ipotesi su µX − µY può
essere testata utilizzando come v.c. test X – Y . Poiché le varianze non sono note,
verrebbe naturale stimarle ma, come detto nella sez. 6.9 del cap. 6, la v.c.
X −Y − (µ X − µ Y )
S X2 / m + S Y2 / n
non ha in generale una distribuzione nota. Allora si aprono due alternative.
•
La prima è assumere che σ X2 = σ Y2 = σ2. In tale caso la distribuzione esatta della
statistica test è
X −Y − (µ X − µ Y )
S p 1/ m + 1/ n
dove S P2 =
~ T(m + n – 2 )
S X2 (m − 1) + SY2 (n − 1)
è la varianza pooled utilizzata per stimare σ2
m+n−2
sfruttando l’informazione di entrambi i campioni x e y. Ovviamente sotto H0
abbiamo
(
•
X −Y − (µ X − µ Y )
S p 1/ m + 1/ n
| H0) ~ T(m + n – 2 ).
La seconda alternativa si può utilizzare quando la dimensione di entrambi i
campioni, m ed n, è abbastanza grande per poter approssimare la distribuzione di
X −Y − (µ X − µ Y )
S X2 / m + S Y2 / n
con la Normale, cioè
X −Y − (µ X − µ Y )
S X2 / m + S Y2 / n
≈ N(0, 1).
In questo caso sotto l’ipotesi nulla abbiamo
(
X −Y − (µ X − µ Y )
S X2 / m + S Y2 / n
| H0) ≈ N(0, 1).
A questo punto l’analisi procede in modo esattamente analogo a quanto illustrato negli
altri esempi.
59
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
13. Esempio X ~ N(µX,
test per con
σ X2 / σ Y2
σ X2 ),
Y ~ N(µY,
σ Y2 )
indipendenti:
con µX e µY note
Siano X ~ N(µX, σ X2 ) e Y ~ N(µY, σ Y2 ) due v.c. indipendenti con µX e µY note. Si vuole
sottoporre a test un’ipotesi su σ X2 / σ Y2 , al livello di significatività α sulla base dei c.c.s.
x = (x1, …, xm) e y = (y1, …, yn).
Risparmiando per brevità i dettagli tecnici, un’ipotesi su σ X2 / σ Y2 quando le medie sono
note può essere testata utilizzando come v.c. test S *2* X / S *2*Y , che nelle assunzioni
dell’esempio è distribuita nel modo seguente (cap. 6, sez. 6.10):
S*2* X σ Y2
S*2*Y σ X2
~ F(m, n).
Poiché l’ipotesi nulla di norma considerata nelle ipotesi di questo esempio è
H0: σ X2 / σ Y2 = 1,
in questa descrizione faremo riferimento a questa situazione, avvertendo però che se al
posto dello 1 c’è una qualsiasi altra costante, il test può essere effettuato in modo del
tutto analogo sostituendo a 1 la costante corrispondente.
Allora sotto H0, l’ipotesi sotto la quale occorre mettersi per trovare la regione di rifiuto
sulla base del livello di significatività α, abbiamo
(
S*2* X
S*2*Y
| H0 ) ~ F(m, n).
A questo punto l’analisi procede in modo esattamente analogo a quanto visto negli
esempi precedenti.
60
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
14. Esempio X ~ N(µX,
test per con
σ X2 / σ Y2
σ X2 ),
Y ~ N(µY,
σ Y2 )
indipendenti:
con µX e µY incognite
Siano X ~ N(µX, σ X2 ) e Y ~ N(µY, σ Y2 ) due v.c. indipendenti con µX e µY non note. Si
vuole sottoporre a test un’ipotesi su σ X2 / σ Y2 , al livello di significatività α sulla base dei
c.c.s. x = (x1, …, xm) e y = (y1, …, yn). Di nuovo consideriamo che l’ipotesi nulla sia
H0: σ X2 / σ Y2 = 1,
avvertendo che se al posto dello 1 c’è una qualsiasi altra costante, il test può essere
effettuato in modo del tutto analogo sostituendo a 1 la costante corrispondente.
Risparmiando di nuovo i dettagli tecnici, un’ipotesi su σ X2 / σ Y2 quando le medie sono
incognite può essere testata utilizzando come v.c. test S X2 / S Y2 , che nelle assunzioni
dell’esempio è distribuita nel modo seguente (cap. 6, sez. 6.11):
S X2 σ Y2
SY2 σ X2
~ F(m – 1 , n – 1).
Allora sotto H0, l’ipotesi sotto la quale occorre mettersi per trovare la regione di rifiuto
sulla base del livello di significatività α, abbiamo
(
S X2
SY2
| H0) ~ F(m – 1 , n – 1).
A questo punto l’analisi procede in modo esattamente analogo a quanto visto negli
esempi precedenti.
15. Esempio X ~ N(µX,
σ X2 ),
Y ~ N(µY,
σ Y2 ):
test per
µX − µY con dati appaiati
Nella sez. 6.14 del cap. 6 (cui rimandiamo per maggiori dettagli) abbiamo discusso la
condizione di appaiamento dei dati, evidenziando che in tale situazione il confronto fra
61
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
le medie delle due v.c. può essere effettuato analizzando direttamente la v.c. differenza
D = X – Y. A questo riguardo si assume che
D ~ N(µD, σ D2 )
e si utilizza come campione estratto da D le differenze d = (d1, …, dn), dove ciascuna di
è lo scarto fra le osservazioni corrispondenti della i-ma unità nei due campioni, ovvero
di = xi – yi.
In questo modo il problema in analisi è stato trasformato nella costruzione di un test per
la media (µD) di una v.c. Normale con varianza incognita ( σ D2 ), per il quale vale
esattamente quanto detto nella sez. 0. La v.c. test da utilizzare è allora D , la cui
distribuzione è data da
D − µD
SD / n
~ T(n – 1),
e nel quale S D2 è la varianza campionaria corretta di D. Ipotizzando che l’ipotesi nulla
sia H0: µX − µY = 0 ovvero H0: µD = 0 (se al posto dello 0 c'è un altro valore basta
sostituire lo 0 con il valore corrispondente) sotto H0 abbiamo
(
D
SD / n
| H0) ~ T(n – 1).
A questo punto l’analisi procede in modo esattamente analogo a quanto illustrato in sez.
0.
16. Esempio X ~ Be(pX), Y ~ Be(pY) indipendenti: test
per pX − pY
Siano X ~ Be(pX), Y ~ Be(pY) due v.c. indipendenti. Si vuole sottoporre a test un’ipotesi
su pX – pY, al livello di significatività α, sulla base dei c.c.s. x = (x1, …, xm) e y = (y1, …,
yn).
Risparmiando i dettagli tecnici, un’ipotesi su pX – pY può essere testata utilizzando come
v.c. test X – Y . In generale la distribuzione esatta di tale v.c. non è semplice da
trattare. Tuttavia se le dimensioni dei campioni m ed n sono sufficientemente elevate, la
62
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
distribuzione di ciascuna delle due v.c. può essere approssimata con una Normale e così
per la differenza:
X – Y ≈ N(pX – pY , pX qX/m + pY qY/n).
Supponiamo che, come di norma accade, l’ipotesi nulla sia
H0: pX – pY = 0,
(se al posto dello 0 c’è una qualsiasi altra costante, il test può comunque essere
effettuato in modo del tutto analogo sostituendo a 0 la costante corrispondente). Allora
la distribuzione della v.c. test sotto H0 diviene
( X – Y | H0) ≈ N(0, p̂ q̂ (1/m + 1/n))
dove, essendo pX – pY = 0 sotto l’ipotesi nulla, abbiamo supposto pX = pY = p e stimato il
valore p sfruttando l’informazione di entrambi i campioni, cioè
m
n
i=1
j=1
∑Xi + ∑Yj
p̂ =
m+ n
=
mX +nY
.
m+n
p̂ è la stima pooled del p comune alle due v.c. X e Y sotto H0 ed è una media pesata di
X eY.
A questo punto la procedura di test procede in modo del tutto analogo al test della
media di una v.c. Normale con varianza nota.
17. Esempio X ~ Po(λX), Y ~ Po(λY) indipendenti:
intervallo per λX – λY
Siano X ~ Po(λX), Y ~ Po(λX) due v.c. indipendenti. Si vuole sottoporre a test un’ipotesi
λX – λY, al livello di significatività α, sulla base dei c.c.s. x = (x1, …, xm) e y = (y1, …,
yn).
L’analisi di questo esempio procede in modo assai simile a quella dell’esempio
precedente. Risparmiando di nuovo i dettagli tecnici, un’ipotesi su λX – λY può essere
testata utilizzando come v.c. test X – Y . In generale la distribuzione esatta di tale v.c.
non è semplice da trattare. Tuttavia se le dimensioni dei campioni m ed n sono
63
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
sufficientemente elevate, la distribuzione di ciascuna delle due v.c. può essere
approssimata con una Normale e così la differenza:
X – Y ≈ N(λX – λY, λX /m + λY /n).
Supponiamo che, come di norma accade, l’ipotesi nulla sia
H0: λX – λY = 0,
(se al posto dello 0 c’è una qualsiasi altra costante, il test può comunque essere
effettuato in modo del tutto analogo sostituendo a 0 la costante corrispondente). Allora
la distribuzione della v.c. test sotto H0 diviene
( X – Y | H0) ≈ N(0 , λ̂ (1/m + 1/n))
dove, essendo λX – λY = 0 sotto l’ipotesi nulla, abbiamo supposto λX = λY = λ e stimato
il valore λ sfruttando l’informazione di entrambi i campioni, cioè
m
n
i=1
j=1
∑Xi + ∑Yj
λ̂ =
m+ n
=
mX +nY
.
m+n
λ̂ è la stima pooled del λ comune alle due v.c. X e Y sotto H0 ed è una media pesata di
X eY.
A questo punto la procedura di test procede in modo del tutto analogo al test della
media di una v.c. Normale con varianza nota.
18. Test di ipotesi non parametriche
Sia X la v.c oggetto di analisi. Negli esempi precedenti si è discusso delle procedure per
sottoporre a test ipotesi sui parametri caratterizzanti la distribuzione di X (per questo
dette ipotesi parametriche), della quale abbiamo sempre assunto che la forma della sua
funzione di massa o di densità fosse nota a meno del valore di tali parametri. Può però
capitare di essere interessati a verificare se il modello scelto per rappresentare la
distribuzione di X è effettivamente ben scelto, cioè se i dati sono effettivamente ben
rappresentati dalla distribuzione assunta.
In queste circostanze occorre sottoporre a verifica ipotesi relative alla forma della
distribuzione della v.c. X. E’ chiaro che in tale caso l’ipotesi riguarda non più i
parametri che caratterizzano la distribuzione, ma direttamente la distribuzione stessa. In
64
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
queste situazioni il test del rapporto di verosimiglianza non è sempre applicabile in
quanto può risultare impossibile la derivazione della funzione di verosimiglianza sotto
l’ipotesi alternativa: ciò accade tutte le volte in cui l’ipotesi alternativa viene riferita ad
una vasta classe di funzioni. Il fatto che la classe delle alternative possibili sia
generalmente molto ampia rende difficile anche ogni possibile confronto tra procedure
di test diverse in termini di probabilità d’errore di II tipo. In questi casi si preferisce
usualmente rinunciare ad ogni valutazione della probabilità di tale errore.
Esistono molti metodi per sottoporre a test ipotesi sulla forma della distribuzione: in
questo corso consideriamo soltanto il test χ2.
Sia dunque X la v.c considerata e individuiamo la distribuzione di X tramite la sua
funzione di ripartizione F(x) (si ricorda che data la funzione di massa o di densità di X è
sempre possibile ricavare la sua funzione di ripartizione e viceversa). Supponiamo
quindi di voler sottoporre a test l’ipotesi che F(x) sia riconducibile a una certa funzione
di ripartizione nota F0(x), ovvero
H0: F(x) = F0(x) contro H1: F(x) ≠ F0(x).
In base al campione si otterrà una misura F̂ (x) della “vera” F(x): se F̂ (x) è ben
approssimata da F0(x) l’ipotesi verrà accettata altrimenti verrà rifiutata.
La procedura del χ2 per sottoporre a test l’ipotesi sulla forma funzionale della
distribuzione della v.c. X sulla base di un c.c.s. di osservazioni può essere schematizzata
nei seguenti passi:
1. Si suddivide il campo di definizione della v.c. X in k intervalli disgiunti I1, ..., Ik in
modo tale che in ciascun intervallo cadano almeno 5 valori campionari, sia in base
alla distribuzione teorica che a quella riscontrata del campione.
2. Si determina il numero ni dei valori campionari che cadono in ciascun intervallo Ii.
3. Usando F0(x), si calcola la probabilità pi0 che, sotto H0, X assuma un valore
all’interno dell’intervallo Ii. Da questi pi0 si calcolano poi i valori ni0 = n pi0 ,
ciascuno dei quali rappresenta il numero teorico di valori campionari che, se H0
fosse vera, dovrebbero cadere in Ii.
4. Si calcola poi la quantità
χ
2
(n − n )
=∑
k
0 2
i
i
ni0
i =1
65
.
B. Chiandotto – F. Cipollini
Versione 2003 – Cap. 7
Metodi statistici per le decisioni d’impresa
Si può dimostrare che, sotto H0, la quantità indicata ha approssimativamente una
distribuzione Chi-quadrato con k – 1 – r, dove k è il numero degli intervalli ed r è il
numero dei parametri incogniti che occorre stimare per ottenere i valori teorici ni0
(ad esempio, r = 1 nella Poisson ed r = 2 nella Normale); in simboli
(χ
2
(n − n )
=∑
k
i =1
0 2
i
i
ni0
| H0) ∼ χ2(k – 1 – r).
5. In base al livello di significatività α prefissato si determina il valore critico del test c
dalla relazione P(χ2 > c | H0) = α utilizzando le tavole della χ2(k – 1 – r).
6. Infine il confronto del χ2 calcolato sul campione col valore critico c trovato dalle
tavole suggerisce se accettare o rifiutare H0.
66