1. PROBABILITA`. CONCETTI FONDAMENTALI Gli eventi reali

annuncio pubblicitario
1. PROBABILITA'. CONCETTI FONDAMENTALI
Gli eventi reali possono essere generalmente associati ad una di due
categorie principali:
-
eventi che possono essere replicati (con ciò implicando condizioni
ripetitive, identiche),
eventi considerati unici, o rari (nella scala dei tempi considerata).
Come esempio della prima categoria di eventi possiamo menzionare l'uscita
di un numero alla roulette, o il guasto di un componente meccanico durante
delle prove in condizioni controllate, riproducibili.
Come esempio della seconda categoria di eventi possiamo menzionare la
posizione che avrà all'arrivo un dato cavallo in una corsa, o il guasto di un
sistema meccanico durante la sua missione (per es., la rottura del cambio di
un'auto durante una corsa), o l'eventualità di un terremoto in una data
regione in un intervallo di tempo determinato.
Se la probabilità di un dato evento è una quantità con cui misurare il grado
di fiducia, o confidenza, sulla sua riuscita, basandoci sulle nostre
conoscenze in un determinato momento, due definizioni distinte di essa
potranno quindi essere formulate, a seconda dell'appartenenza all'una od
all'altra delle categorie sopra citate.
Così, in rapporto agli eventi della prima categoria, avremo la definizione
"frequentista" per la quale, dato un evento X, la probabilità, P(X), del suo
avverarsi in una certa prova è data dal rapporto tre il numero di eventi
favorevoli (cioè corrispondenti all'evento X) ed il numero di tutti gli eventi
possibili, assumendo condizioni identiche in ciascuna prova (come
succede, ad esempio, con le giocate alla roulette).
Per quanto riguarda invece la seconda categoria di eventi, avremo la
definizione "soggettivista" secondo la quale, dato un evento X, la
probabilità, P(X), del suo avverarsi in una certa prova corrisponde ad una
valutazione quantitativa personale (e quindi soggettiva) del suo avverarsi
(come la posizione in classifica di un cavallo alle corse su cui
scommettiamo). Si suppone che questa valutazione soddisfi comunque i
criteri di autoconsistenza e compatibilità con le altre informazioni
disponibili.
1.2. Probabilità di eventi
Eventi congiunti
Il risultato congiunto, o intersezione, di due generici eventi X e Y è
indicato con la notazione X I Y (X AND Y). La probabilità di questa
intersezione, P ( X I Y ) , è normalmente denotata P(XY). Introducendo il
concetto di probabilità condizionata P(X|Y), cioè, la probabilità dell'evento
X dato Y, si può scrivere la relazione
P ( X I Y ) ≡ P ( XY ) = PX | U ) P (Y )
(1.1)
L'estensione ad eventi multipli è immediata. Per esempio, nel caso di tre
eventi X, Y e Z, si ha
P ( X I Y I Z) ≡ P ( XYZ ) = P ( X | YZ )P ( Y | Z) P( Z ) .
(1.2)
Se, oltre ad X, introduciamo il suo complemento X (NOT X), cioè l'evento
che X non abbia luogo, questi due eventi si escludono a vicenda e la
probabilità di verificarsi contemporaneamente si annulla, cioè
P( XX) = P( X | X )P( X) = 0 .
(1.3)
Eventi disgiunti
Consideriamo ora il risultato di due eventi disgiunti X e Y. Chiameremo
questo evento l'unione di X ed Y e lo denoteremo con XU Y (X OR Y). La
probabilità di questa unione, P(XU Y), è normalmente denotata P(X+Y). Si
può scrivere la seguente espressione:
P(X+Y) = P(X) + P(Y) − P(XY) ,
(1.4)
dove P(XY) corrisponde alla alla probabilità dell'evento congiunto
(intersezione) di X e Y. Anche in questo caso l'estensione ad eventi multipli
è immediata. Per esempio, nel caso di tre eventi X, Y e Z, risulta
P(XU Y U Z) ≡ P(X+Y+Z)
= P(X) + P(Y) + P(Z) − P(XY) − P(XZ) − P(YZ) + P(XYZ)
(1.5)
In relazione agli eventi X e X (NOT X) la probabilità del loro risultato
disgiunto è
P( X + X) = P( X) + P( X ) = 1 .
(1.3)
2. VALUTAZIONE PROBABILISTICA DEI COMPONENTI
Un sistema è una struttura formata da uno o più componenti, od unità, o
elementi (generalmente soggetti a riparazione, in caso di guasto). Qui ci
limiteremo a considerare tali componenti. I concetti principali che si
otterranno, come quelli relativi alla affidabilità o alla disponibilità, possono
essere tuttavia anche estesi ad interi sistemi (o sottosistemi).
Distingueremo dapprima tra due tipi di componenti: quelli che operano su
richiesta e quelli che operano di continuo.
Componenti che operano su richiesta
Per quanto riguarda i componenti che operano su richiesta, potremo
definire la probabilità che all' l -esima richiesta il componente sia in
operazione (evento X l ). La probabilità che il componente sia in operazione
a ciascuna di L richieste sarà data dall'equazione
P(X1X2 ... XL) = P(XL| X1 X2 ... XL-1) P(X1 X2 ... XL-1)
≡ P(XL| X1 X2 ... XL-1) P(XL-1| X1 X2 ... XL-2) ... P(X2|X1)P(X1)
(1.4)
Componenti che operano di continuo
Per quanto riguarda i componenti che operano di continuo, indichiamo con
F(t) la probabilità (cumulativa) che il tempo del loro primo guasto sia
inferiore od eguale al tempo t di continua operazione. Ovviamente, è
0 ≤ F( t ) ≤ 1. La corrispondente funzione di distribuzione delle probabilità
(p.d.f.) f(t) sarà data dall'equazione
f (t) =
dF( t )
dt
( t > 0)
(1.5)
La quantità f(t)dt corrisponde alla probabilità che il primo guasto avvenga
tra t e t+dt.
Introduciamo ora il tempo medio alla rottura (MTTF, per "mean time to
failure"), cioè il tempo medio che il componente ha funzionato prima della
rottura. Esso sarà dato dall'espressione
∞
MTTF =
∫ tf (t)dt
.
(1.6)
o
Affidabilità dei componenti
La probabilità che nell'intervallo (0,t) non avvengano guasti, nel senso che
durante questo tempo il componenti operi normalmente, è chiamata
"affidabilità" (ingl.: reliability) ed è denotata con R(t). Otteniamo
facilmente
R(t) = 1 − F( t ) =
∞
∫ f (t)dt
.
(1.7)
t
Chiaramente, R ( t ) → 0 per t → ∞ . Dall'espressione (1.7) vediamo che F(t)
corrisponde al complemento dell'affidabilità, cioè a [1 − F( t )] . Questa
quantità è chiamata "inaffidabilità" (ingl.: unreliability) ed è denotata
R (t) .
Poiché è
dR( t )
= − f (t ) ,
dt
(1.8)
dalla (1.6) otteniamo che il tempo medio al guasto è dato dall'espressione
∞
MTTF =
∫ R (t)dt
.
(1.9)
o
La funzione di distribuzione della probabilità di primo guasto f(t) relativa
ad un componente è normalmente espressa dal prodotto
f(t) = λ(t)R(t) ,
(1.10)
dove λ(t) viene definito il tasso di guasto istantaneo, generalmente
conosciuto come "tasso di rischio" (ingl.: hazard rate). La quantità f(t)dt ha
il significato di una probabilità condizionata. Infatti, essa corrisponde alla
probabilità che tale componente sia soggetto a guasto nel tempo dt dopo
aver funzionato normalmente fino al tempo t.
Poiché è f ( t ) = −
λ(t) =
dR( t )
, si ha
dt
f (t)
1 dR( t )
= −
R( t )
R ( t ) dt
(1.11)
e quindi le relazioni
R(t) = e
− ∫ t λ ( t) dt
o
f(t) = λ(t) e
t
o
− ∫ λ ( t) dt
(1.12)
.
(1.13)
L'equazione (1.12) è chiamata l'equazione fondamentale dell'affidabilità,
data la sua importanza nei casi pratici. Infatti, l'informazione dei dati
statistici sull'affidabilità dei componenti è generalmente data attraverso i
valori di λ(t).
Il comportamento nel tempo di λ(t) segue generalmente la cosiddetta
"curva a vasca da bagno" (bath tub curve) (v. figura 1), caratterizzata cioè
da tre periodi: un primo periodo con λ(t) all'inizio relativamente grande e
quindi decrescente esponenzialmente per la progressiva eliminazione di
tutte le unità difettose; un secondo periodo, più o meno lungo, con λ(t)
relativamente costante, chiamato periodo di vita utile; un terzo periodo,
chiamato periodo di invecchiamento, durante il quale λ(t) aumenta
rapidamente con il tempo a seguito di processi di degradazione. In pratica, i
componenti sono usati solo durante il periodo di vita utile, cioè dopo prove
iniziali e prima dell'inizio dei processi di degradazione. Poichè in questo
periodo il valore λ può essere considerato costante, l'espressione
dell'affidabilità può essere semplificata e risulta
R(t) = e
−λt
.
(1.14)
Corrispondentemente, anche l'espressione del tempo medio al guasto
(MTTF) si semplifica. Ricordando la (1.9), si può scrivere
∞
MTTF =
∫ R (t)dt
o
= 1/λ .
(1.15)
λ(t)
t
Fig. 1. Curva a vasca da bagno λ(t)
Disponibilità dei componenti
L'affidabilità R(t) di un componente dà la probabilità che esso non abbia
subito eventi di guasto fino al tempo t e si applica sia ad elementi non
riparabili che ad elementi riparabili. Introduciamo ora il concetto di
"disponibilità" (ingl.: availability) che si applica ad un componente che,
essendo riparabile, può tollerare condizioni di stato di guasto. In questi casi
la disponibilità corrisponde alla probabilità che tale componente sia in
operazione ad un dato istante t e viene denotato come A(t). Il suo
complemento, A( t ) = 1 − A( t ) viene chiamato "indisponibilità" (ingl.:
unavailability). Ovviamente è R ( t ) ≤ A( t ) ≤ 1, dove l'equazione
R ( t ) = A( t ) vale per componenti non riparabili.
Consideriamo il caso di un sistema formato da un singolo componente e
definiamo il tasso µ(t) di riparazione istantaneo, così come λ(t) è stato
definito come tasso di guasto istantaneo, o tasso di rischio). Se il tasso di
riparazione istantaneo è costante, ciò significa assumere che i tempi di
riparazione (da non confondersi con i tempi in cui inizia la riparazione)
sono distribuiti in modo casuale (ingl.: random). Abbiamo già visto come
in rapporto al valore costante λ il tempo medio al guasto MTTF è dato da
1/ λ. In modo del tutto analogo, in rapporto al valore costante µ, il tempo
medio alla riparazione MTTR (solitamente << MTTR ) è dato da 1/µ . La
somma MTTF+MTTR corrisponde al tempo medio tra due guasti (MTBF,
per l'ingl.: mean time between failures). Avendo assunto processi di
riparazione casuali con un tasso istantaneo µ, si trova facilmente che la
distribuzione dei tempi di riparazione segue una legge esponenziale, cioè
µ exp[−µ( t − t )] , dove t rappresenta il tempo del guasto a partire dal quale
la riparazione ha luogo.
A tempi asintotici, con valori costanti di l e µ, la disponibilità è data dal
rapporto tra MTTF (=1/λ) e MTBF (= 1/λ + 1/µ), cioè
A( ∞ ) =
1/ λ
µ
=
.
1/ λ + 1/ µ λ + µ
(1.16)
2. DISTRIBUZIONI STATISTICHE E STIME DI PARAMETRI
Descriveremo brevemente nel seguito alcune distribuzioni statistiche di
interesse in relazione agli eventi di guasto di componenti ed alcuni criteri
con cui i parametri che definiscono queste distribuzioni possono essere
valutati a partire da dati statistici.
2.1 Distribuzioni statistiche
Distribuzione binomiale
Questa distribuzione viene usata per elementi caratterizzati da due possibili
stati [evento X/evento X (NOT X), o UP/DOWN, o successo/insuccesso]
in cui il numero totale di prove (L) è conosciuto. Per esempio, si può
applicare ai componenti operanti a richiesta.
Si parte dall'evidente equazione
[ P( X) + P( X )] = 1 .
L
(2.1)
Il generico termine a sinistra risulta
L!
P( X ) n P( X) L − n
P(n) =  L  P( X) n P( X) L − n ≡
n
 
n! ( L − n)!
(2.2)
e rappresenta la probabilità che in n (di un totale di L) prove il risultato sia
un insuccesso (evento X ).
Valore medio di n:
n=
L
∑ nP(n) = LP(X )
.
(2.3)
n =0
Varianza di n:
σ =
2
L
∑ ( n − n)
2
P(n ) = LP( X) P( X) .
(2.4)
n =0
Probabilità cumulativa, su L prove, di numero di evento di guasto ≤ x :
x
P( n ≤ x) =
∑ P( n)
.
(2.5)
n =0
Distribuzione di Poisson
Si ottiene dalla distribuzione binomiale relativa ad un numero molto grande
di prove identiche per ciascuna delle quali la probabilità di insuccesso
P( X ) è molto piccola. Per L → ∞ e P( X ) → 0 si ottiene facilmente
−µ
e µ
P( n) =
n!
n
,
(2.6)
dove µ qui rappresenta il numero medio di insuccessi (risulta anche eguale
alla varianza)
Distribuzione Erlanghiana
E' la distribuzione continua ottenuta da quella di Poisson ponendo il
numero complessivo degli insuccessi µ=λt, avendo assunto λ costante.
Risulta
P( n, t ) =
e
− λt
n!
( λt ) n .
(2.7)
Probabilità che l'n'esimo guasto avvenga in tra t e t+dt, essendosi già
verificati (n-1) guasti:
λ( λt ) n −1 e − λ t dt
f n ( t )dt = λP( n − 1, t )dt =
( n − 1)!
(2.8)
Ponendo n=1 si ottiene la distribuzione di primo guasto. Scrivendo f(t) in
luogo di f1(t) si ha:
f(t) = λe
−λt
che coincide con la distribuzione esponenziale.
(2.9)
Distribuzione gamma
E' una distribuzione usata per rappresentare situazioni in cui il componente
considerato è soggetto ad eventi ripetitivi, come shock termici, fenomeni di
fatica, ecc. In questo caso la probabilità di guasto dipende dal numero di
eventi verificatisi. Essa è data dall'espressione
λ( λt ) n −1 e − λt dt
f (t) =
Γ( n)
(λ>0; n>0)
(2.10)
dove n può anche non essere un intero. Se n è intero, essendo in questo
caso Γ(n ) ≡ n! , si ottiene di nuovo la distribuzione Erlangiana.
Distribuzione lognormale
Si consideri la distribuzione normale (Gaussiana) di una quantità t:
y(t) =
2
2
1
− ( t − t ) / 2σ
e
2π σ
(2.11)
dove t e σ2 sono il valore medio e la varianza di x, rispettivamente.
Poniamo ora nella (2.10) lnt , il suo valore medio (espresso come lnβ) e la
sua varianza α 2 in luogo di t, t e σ2, rispettivamente. Si otterrà la cosiddetta
distribuzione lognormale:
f(x) =
2
2
1
−[ln( t / β)] / 2 α
e
2 π αt
(2.12)
dove la presenza del coeficiente 1/t nel membro a destra dipende dal fatto
che si è mantenuto l'argomento t, piuttosto che lnt , cioè la distribuzione è
stata moltiplicata per
dln t 1
≡ .
dt
t
Valore medio di t:
t = βe −α
Varianza di t:
2
/2
(2.13)
σ 2 = β 2 e −α
2
2
(exp α −1)
.
(2.14)
La distribuzione lognormale ha rilevanza per quantità che si assume avere
sempre valori positivi
Distribuzione di Weibull
.Questa distribuzione è usata per descrivere ognuno dei tre periodo definiti
in relazione alla curva a "vasca da bagno" incontrata precedentemente. Essa
si presenta nella forma:
f(t) = λ( t )e
−λ (t )t / β
(2.15)
dove λ = αβ t β −1 ed α è un parametro di scala.
Se β<1, la funzione λ(t) presenta un andamento decrescente (periodo
iniziale).
Se β=1, allora λ=α e si ha la distribuzione esponenziale (periodo utile).
Se β>1 la funzione λ(t) presenta un andamento crescente (andamento finale
di invecchiamento).
2.2 Stima dei parametri
Dati i tempi di guasto ottenuti sperimentalmente relativi ad un campione di
J componenti identici ( o da J misure rrelative allo stesso componente), si
pone di determinare la distribuzione del tempo di guasto per componenti di
questo tipo. Descriveremo nel seguitotre metodi largamente usati a questo
scopo: il metodo dei momenti, il metodo della massima verosimiglianza, il
metodo della massima entropia.
Metodo dei momenti
Dati i tempi di guasto ottenuti da J componenti, il metodo dei momenti
consiste nel valutare dapprima il loro valore medio e la varianza , usando le
espressioni
1 J
∑tj
J j=1
t =
σ2 =
(2.16)
1 J
(t j − t) 2
∑
J − 1 j=1
(2.17)
dove tj rappresenta il tempo di guasto del componente j'esimo. Una volta
che t e σ2 sono dati, assieme alla curva di distribuzione appropriata
(esponenziale, gamma, ecc.), i parametri che la caratterizzano
(normalmente non eccedenti il numero di due, come abbiamo visto nei
paragrafi precedenti) possono quindi essere stimati attraverso le relazioni
che li legano al valor medio ed alla varianza.
Metodo della massima verosimiglianza
Il metodo della massima verosimiglianza (ingl.: maximum likelihood
method) consiste nel determinare quei parametri che massimizzano la
funzione di verosimiglianza
L( t 1 , t 2 ,..., t J | θ1 , θ 2 ,..., θ M ) =
J
∏ f (t j | θ1 , θ 2 ,..., θ M )
(2.18)
j=1
dove θ1 , θ 2 ,..., θ M rappresentano i parametri i cui valori si vogliono
stimare, mentre
f ( t j | θ1 , θ 2 ,..., θ M ) rappresenta la funzione di
~
distribuzione scelta per i tempi di guasto misurati tj. Poiché i valori θm che
massimizzano la funzione L sono gli stessi che massimizzano il suo
logaritmo, per determinarli è preferibile considerare la quantità lnL. Questo
significa porre
∂ ln L
= 0
∂θ m
(m=1,2,...,M)
(2.19)
~
La soluzione di questa equazione consente di ottenere le stime θm . Inoltre,
la stima della loro varianza risulta
~
σ 2m
 ∂ 2 ln L 

= −
 ∂θ 2 

m 
−1
(m=1,2,...,M)
(2.20)
Metodo della massima entropia
L'idea di usare la teoria dell'informazione per predire la distribuzione di un
insieme di eventi elementari distribuiti in forma random ha origine dalla
considerazione che questi, per il fatto stesso di essere random, tendono a
presentarsi nel maggiore disordine possibile (entro i vincoli assegnati),
sicché la conoscenza relativa ad uno qualsiasi di essi risulta essere
massimamente "informativa". 1 Pertanto, lo loro distribuzione può essere
ottenuta massimizzando questa "informatività". Per esprimerla
numericamente si è fatto ricorso al concetto di entropia utilizzato per la
distribuzione delle velocità di un gas contenuto in un recipiente ad una
temperatura fissata. Come noto, in questo caso le velocità delle molecole
del gas si distribuiscono in modo tale che il numero di microstati, o
configurazioni nello spazio delle fasi, in condizioni di equilibrio
termodinamico, sia massimo, il che corrisponde alle condizioni di massimo
disordine del gas stesso. In rapporto a questo, si può dire che in questo caso
la conoscenza delle coordinate spaziali ed energetiche di una molecola è
massimamente "informativa". L'entropia del sistema è definita come
S=ln kW, dove k è la costante di Boltzmann e W il numero di
configurazioni possibili. Sfruttando questa analogia, è stata definita
l'entropia dell'informazione, data dall'espressione
SI = −
1
∑ Pi ln Pi ,
ln 2 i
(2.21)
dove la somma è estesa a tutti i possibili eventi e dove Pi rappresenta la
probabilità che accada l'evento i'esimo. Essa va intesa come probabilità
condizionata, cioè Pi = P(Xi|Y), dove Y rappresenta l'informazione a priori
assegnata (stime di dati, vincoli, ecc.). La funzione SI può essere vista come
la misura dell'informazione mancante, corrispondente al numero di
domande (in termini di bits, cioè si/no, o vero/falso) che sarebbero
necessarie per identificare con certezza l'occorrenza di un evento (per es., il
risultato di una misura) 2. Dato un numero di possibili eventi, si può
dimostrare che l'entropia SI risulta massima se essi sono ugualmente
distribuiti. Dell'informazione teorica o sperimentale che escluda alcune
possibilità naturalmente la ridurrebbero.
1
Se consideriamo il caso limite opposto, di un insieme di eventi non random, cioè predeterminati, l'informazione
contenuta dalla rilevazione (in questo caso, verifica) di uno di essi sarebbe ovviamente nulla, il loro accadere essendo
conosciuto in partenza.
2
Per esemplificare, consideriamo un sistema formato da un solo componente, soggetto ad una probabilità di guasto π.
1
1
L'entropia del sistema sarà S I = −
∑ Pi ln P i ≡ −
∑ P i ln P i
ln 2 i
ln 2 i
Consideriamo ora il caso di J componenti identiche (il che implica una
comune funzione di distribuzione dei guasti) soggette a test. I tempi di
guasto risultano tj (j=1,2,...,J), da cui possono essere ricavati stime dei
valori medi e delle varianze.
Se suddividiamo il tempo in intervalli uguali dt r = ( t r +1 − t r ) , avendo
posto to=0, e definiamo con Pr la probabilità che il componente in esame si
guasti nell'intervallo dt r , allora l'equazione (2.21) può essere scritta , a
parte un coefficiente costante,
∞
S I = −∑ Pr ln Pr .
(2.22)
r =1
Assumendo l'ovvio vincolo
∞
∑ Pr
= 1
(2.23)
r =1
ed altri del tipo
∞
∑ Tm (t r )Pr
r =1
= Tm ,
(m=1,2,...,M)
(2.24)
dove T m e Tm rappresentano M funzioni date il loro valore medio (di cui si
conoscono delle stime), rispettivamente, la funzione da massimizzare, che
chiameremo F, risulterà
∞
∞
∞
r =1
r =1
F = − ∑ Pr ln Pr + ( k o − 1)( ∑ Pr − 1) + k1 ( ∑ T1 ( t r ) Pr − T1 )
r =1
∞
+ ... + k M ( ∑ TM ( t r ) Pr − TM )
(2.25)
r =1
dove (ko-1), k1,...,kM sono i moltiplicatori di Lagrange.
Differenziando rispetto a Pr, si ottengono le equazioni
dF
dPr
= − ln Pr + k o + k 1T1 ( t r ) + ... + k M TM ( t r ) = 0
(r=1,2,...)
(2.26)
da cui si ottiene
Pr = e
− k o − k1T1 ( t r ) − ...− k M TM ( t r )
(r=1,2,...)
(2.27)
da cui i valori dei moltiplicatori di Lagrange ko, k1,...,kM si possono ottenere
usando i vincoli (2.23) e (2.24).
Se in luogo delle probabilità discrete Pr poniamo f r δt r , dove f r è il valore
medio della densità di probabilità del guasto del componente nell'intervallo
δt r , e facciamo quindi tendere δt r a zero, otteniamo la densità (continua)
di distribuzione
f (t r ) =
lim f r = e − k o − k1T1( t r ) −... − k M TM ( t r ) .
δt r →0
(tr ≥ 0)
(2.28)
Come detto sopra, i valori dei moltiplicatori di Lagrange ko, k1,...,kM
possono essere ottenuti usando i vincoli, che in questo caso
corrisponderanno alle equazioni (2.23) e (2.24), con lasomma sostituita dal
corrispondente segno di integrale. Possiamo quindi scrivere
∞
∫ f (t)dt
= e
o
∞
∫ Tm (t )f (t)dt
o
−k o
∞
∫e
− k 1T1 ( t r ) −... − k M TM ( t r )
dt = 1
(2.29)
o
= e
−k o
∞
∫ Tm (t)e
− k1T1 ( t r ) − ... − k M TM ( t r )
dt = Tm
o
(m=1,2,...,M)
(2.30)
Da queste equazioni si ricava facilmente
∞
dk o
dk o
d[exp(−k o ]
=
Tm = − ∫ Tm f ( t )dt = −Tm .
dk m
d[exp(−k o ]
dk m
o
(m=1,2,...,M)
(2.31)
Ora si danno due possibilità, a seconda se la funzione di distribuzione
specifica relativa agli eventi considerati e sconosciuta, o il tipo cui essa
appartiene è noto e desideriamo determinare i parametri che la definiscono.
Nel primo caso, l'informazione rappresentata dalle quantità Tm
_
(generalmente i momenti t n ) consentiranno di determinare i valori ko,
k1,...,kM (e quindi la legge di distribuzione). Nel secondo caso, è necessario
esprimere la funzione data nella forma data dalla (2.28) e quindi, usando la
(2.31), determinare i suoi parametri.
A titolo di illustrazione, consideriamo una quantità di cui conosciamo solo
la stima del suo valore medio. Assumiamo che questo valore sia il tempo
medioal guasto (MTTF=t ) di un componente. In questo caso M=1 e
possiamo usare solo due vincoli. I corrispondenti moltiplicatori di
Lagrange possono essere ottenuti dalle due equazioni
e
−k o
∞
∫e
− k 1t
dt =
o
e
−k o
∞
∫ te
− k 1t
dt =
o
e
−k o
k1
e −k o
k12
= 1
=
(2.32)
1
k1
= t .
(2.33)
Risulta quindi k 1 = 1 / k e k o = − ln(1 / t ) . La funzione di distribuzione
sarà quindi, ponendo λ in luogo di 1 / t ,
f ( t ) = λe − λ t
(2.34)
cioè troviamo che la distribuzione esponenziale è quella più probabile in
assenza di informazione supplementare.
E' anche immediato verificare che , se avessimo scelto a priori la
distribuzione esponenziale come quella adatta agli eventi considerati,
avremmo trovato che λ =1 / t .
Se, oltre alla stima del valore medio t , avessimo avuto anche la stima della
varianza, ma nessuna informazione sui momenti di ordine superiore e
neppure sul tipo di curva si debba applicare, avremmo ottenuto la ben nota
distribuzione normale Gaussiana. Se, oltre al primo e secondo momento,
avessimo avuto ragione di credere che la distribuzione esponenziale è
quella più appropriata, sulla base di una valutazione personale fondata
sull'esperienza e su casi simili precedenti, l'informazione relativa alla
varianza non dovrebbe essere considerata. Infatti, con la distribuzione
esponenziale, come abbiamo visto nei paragrafi precedenti, la varianza è
2
data dal quadrato del valore medio (in questo caso da t ). In questo caso,
l'informazione sulla varianza potrebbe essere semmai usata per verificare la
validità della scelta della distribuzione esponenziale.
Scarica