Cenni sulla statistica degli estremi

annuncio pubblicitario
Cenni sulla statistica degli estremi
5.1 Premessa
Nell’ambito della sismologia lo stato attuale delle conoscenze non è ancora tale da
consentire una previsione deterministica, cioè la previsione mediante leggi fisiche univoche,
di quanto grandi, di dove e di quando si verificheranno i prossimi terremoti distruttivi con
un’approssimazione tale da trovare utili applicazioni pratiche. L’importanza del problema
impone d’altra parte di esplorare tutte le possibili strade per arrivare ad una sua soluzione
quanto meno approssimata per predisporre adeguate misure di prevenzione delle
conseguenze negative. Fermo restando che la previsione deterministica dello svolgimento dei
fenomeni futuri resta l’obiettivo finale della ricerca scientifica, è allora opportuno
sperimentare anche i risultati dell’applicazione di tecniche statistiche. Queste dovrebbero
consentire di effettuare una previsione del fenomeno terremoto di tipo probabilistico, una
previsione cioè che può essere formulata con grande anticipo, ma che è caratterizzata dalla
cosciente accettazione di un certo livello di indeterminazione.
Lomnitz (1974) definisce la statistica come l’arte dell’applicazione della teoria della
probabilità alla comprensione di un processo. Le tecniche di analisi statistica che solitamente
vengono utilizzate nel calcolo della probabilità, adottano dei modelli rappresentanti
l’idealizzazione di uno qualsiasi dei processi che si realizzano in natura e cercano di
prevederne lo sviluppo indipendentemente dalla conoscenza delle relazioni causa-effetto che
legano ciascuna fase a quelle precedenti e successive.
Anche la valutazione probabilistica del rischio sismico, che è l’oggetto dei nostri
problemi, si riduce all’accettazione di un modello analitico dello sviluppo dell’attività
sismica ed alla determinazione dei parametri che compaiono in tale modello cercando di
adattarlo ai dati sperimentali disponibili.
Molteplici e differenti sono i metodi statistici che vengono usati nel calcolo della
pericolosità sismica; questi sono adottati sia singolarmente sia, più spesso, in combinazione e
dipendono strettamente dagli scopi che si vogliono raggiungere, nonché dalle informazioni e
dai dati che si hanno a disposizione.
La scelta tra i modelli teorici che la statistica è in grado di fornire deve essere effettuata
criticamente, in maniera tale che il modello selezionato risulti essere il più adeguato possibile
per la soluzione del problema che si sta trattando.
I modelli statistici che più comunemente vengono adottati negli studi riguardanti la
valutazione del rischio sono quelli che utilizzano l’intero processo sia in relazione al tempo
(modello poissoniano, modello markoviano), che alla magnitudo (legge di frequenzamagnitudo); altri modelli utilizzano solo parte del processo (teoria dei valori estremi di
Gumbel).
Una delle maggiori difficoltà che caratterizzano gli studi statistici applicati alla
sismologia deriva dal numero generalmente non molto elevato dei dati disponibili. Specie se
si vanno ad analizzare cataloghi che coprono periodi di diversi secoli, si deve ammettere che
la maggior parte dei terremoti che si sono verificati nel passato non hanno lasciato traccia
nelle cronache storiche. In effetti è ovvio che sia rimasta notizia solo dei terremoti di
maggiore intensità: è in un certo senso una fortuna che, agli effetti delle applicazioni
pratiche, si sia interessati proprio a questi.
Appunti per il corso di Geodinamica e Rischi Ambientali – Parte II
Prof. I. Guerra
5.2 TEORIA DI GUMBEL
5.2.1 Introduzione
Per la stima della magnitudo massima possibile per una certa area, così come per la
stima dei periodi di ritorno e della probabilità che si verifichi un terremoto di magnitudo
superiore ad un valore prefissato, si può far uso della teoria dei valori estremi di Gumbel
(1958). Tale teoria venne originariamente sviluppata da Gumbel negli anni 30 e applicata,
per studi di tipo ingegneristico, all’analisi delle piene dei fiumi.
Questo fenomeno presenta numerosi aspetti simili a quello dei terremoti. Anche le
piene dei fiumi sono infatti un evento relativamente molto frequente, ma che solo in via
eccezionale può manifestarsi con dimensioni tali da costituire un pericolo per l’umanità;
proprio per la loro elevata frequenza, delle piene “normali” non è rimasta notizia se non da
qualche decennio a questa parte e non per tutti i corsi d’acqua; per il passato, si ha notizia
solo delle piene di particolare interesse (cioè di particolare entità), la cui frequenza è
fortunatamente bassa rispetto al periodo storico per il quale è lecito presumere che le
informazioni disponibili siano complete.
Altro elemento di grande similitudine tra i due tipi di fenomeni consiste nel fatto che,
pur essendo evidenti i legami tra le piene dei fiumi e le loro cause dirette, è ancora
impossibile prevederne deterministicamente il verificarsi.
Il nucleo sostanziale dell’idea di Gumbel consiste nell’accontentarsi di studiare ed
utilizzare la funzione che descrive l’andamento nel tempo dei fenomeno “piena” solo per la
parte relativa ai fenomeni di maggiore intensità, che si può in qualche misura considerare
nota, senza far riferimento alla parte della stessa funzione che si riferisce ai più frequenti
fenomeni di più modeste dimensioni, sui quali non si hanno dati sperimentali, ma che
presentano evidentemente scarso interesse ai fini delle valutazioni di pericolosità. Da questa
condizione di base deriva il nome di “teoria dei valori estremi” con la quale viene indicata.
Allo stato attuale la teoria di Gumbel trova numerose applicazioni nell’analisi di molti
fenomeni con caratteristiche simili a quelle descritte, quali per esempio raffiche di vento
eccezionali, pericolose per ponti e grattacieli, carichi su solai o ponti, ecc.
La prima applicazione della teoria dei valori estremi agli studi di sismicità risale al 1945,
quando Nordquist effettuò un’analisi dei terremoti della California Meridionale. In seguito, Dick
(1965) applicò la medesima teoria ai terremoti della Nuova Zelanda, mentre Epstein e Lomnitz (1966)
la applicarono nuovamente alla California del Sud.
Esempi di applicazioni più recenti sono dovuti a Shakal e Willis (1972) per l’area a nord dei
Pacifico, a Yegulalp e Kuo (1974) che si interessarono della maggior parte delle regioni sismiche del
mondo, a Goswami e Sarmah (1982) che studiarono la regione nord orientale dell’India ed a Gan e
Tung (1983) che calcolarono la distribuzione probabile dei valore massimo di magnitudo sismica
utilizzando dati mondiali per terremoti superficiali.
Applicazioni relative all’area europea furono effettuate da Karnik e Hubnerova (1968), Boschi
et al. (1969), Shenkova e Karnik (1970) e Burton (1979). De Vivo et al. nel 1979 la utilizzarono
nell’ambito di uno studio che portò alla compilazione della carta sismotettonica dell’Appennino
Meridionale.
Appunti per il corso di Geodinamica e Rischi Ambientali – Parte II
Prof. I. Guerra
5.2.2 Elementi della teoria dei valori estremi
Indichiamo con F(x) la probabilità che un certo fenomeno si verifichi in un determinato
intervallo di tempo T con un valore x di un suo parametro caratteristico, quale può essere la
magnitudo per un terremoto o il livello dell’acqua per un’inondazione. Per comodità di
espressione assumiamo T pari ad un anno in modo da poter parlare nel seguito in termini di
valori annuali: il valore di T però può in realtà assumere valori a piacere, limitati nella pratica
solo dal tipo, dalla qualità e dalla quantità dei dati sperimentali disponibili. Se si indica con Y
il valore massimo che la variabile X assume nel detto intervallo di tempo, la stessa Y
costituisce una variabile statistica la cui funzione di distribuzione è evidentemente collegata
alla F(x): in particolare la probabilità che Y assuma il valore y è uguale al prodotto della
probabilità che sia x- y, estendendo il prodotto a tutti i possibili valori x della variabile X.
La teoria dei valori estremi enunciata da Gumbel è basata sulle seguenti ipotesi:
a) le condizioni prevalenti nel passato devono essere valide anche nel futuro;
b) i fenomeni cui si riferiscono i dati sperimentali disponibili sono indipendenti;
c) il comportamento dei fenomeni estremi di quelli in studio in un dato periodo sarà nel
futuro simile a quello del passato.
Il risultato centrale individuato da Gumbel (1958) risulta essere il seguente: se sono
verificate le condizioni di indipendenza e di uguale distribuzione delle x (osservazioni di una
certa grandezza, es. magnitudo), allora nella maggior parte dei casi di interesse pratico
l’andamento della distribuzione dei valori estremi y è poco sensibile alla forma esatta della
distribuzione delle xi. In questi casi allora, l’esatta distribuzione degli estremi può essere
trovata pur non conoscendo quella delle xi.
In realtà, alcune importanti distribuzioni come la normale, l’esponenziale, la
poissoniana e la logaritmica si comportano in modo analogo per valori della variabile x
tendenti all’infinito, nel senso che tutte hanno un andamento di tipo esponenziale
decrescente:
F(x) = A exp(- k x)
(5.1)
La relazione appena scritta si interpreta dicendo che la probabilità che la grandezza X
assuma il valore x è F(x). Se si definisce la funzione G(x) come:
⌠x
G(x)= | F(τ) dτ
⌡-∞
(5.2)
essa viene ad essere la somma delle probabilità di tutti i valori inferiori ad x, cioè viene ad
essere la probabilità che x sia il valore massimo della X. D’altra parte è ovvio, per la
definizione stessa di probabilità, che il valore di G tende ad 1 quando la x tende al valore
massimo possibile di X. É anche abbastanza ovvio che se F(x) tende asintoticamente a 0,
allora G(x) tende asintoticamente a 1.
Appunti per il corso di Geodinamica e Rischi Ambientali – Parte II
Prof. I. Guerra
Gumbel (1958) ha dimostrato che, se F(x) è di tipo esponenziale decrescente, cosa che
si verifica con notevole frequenza, allora la distribuzione derivata G(x) può assumere tre
diverse forme a seconda delle caratteristiche della variabile x. Queste tre forme prendono il
nome rispettivamente di distribuzione asintotica di I, II e III tipo. In particolare, la
distribuzione asintotica del I tipo è data da:
GI(x) = exp(- exp( -α (x - u))),
α>0
(5.3)
essa è il risultato dell’operazione di integrazione indicata dalla (5.2) nel caso in cui la X sia
illimitata sia a destra che a sinistra. Nel caso in cui la X ammette il limite inferiore θ, la (5.2)
fornisce la distribuzione statistica di Gumbel di II tipo:
GII(x) = exp(-((u - θ)/(x - θ))k),
k > 0, x ≥ θ, u > θ ≥ 0 (5.4)
mentre si perviene alla distribuzione asintotica di III tipo:
GIII(x)= exp (-((β - x)/(β - u))k),
k > 0, x ≤ β, u < β (5.5)
quando la grandezza x è limitata a destra dal valore massimo possibile β.
Si può verificare facilmente che per tutte le tre distribuzioni risulta:
G(u) = 1/e
(5.6)
essendo e la base dei logaritmi naturali. u può quindi essere definito in tutti e tre i casi come
il valore della variabile x che ha la probabilità pari ad 1/e ( 36.8%) di essere un estremo
annuale.
Il significato dei parametri β e θ è rispettivamente quello di valore massimo e minimo
possibile per la variabile x. Il valore di k che compare nelle espressioni delle distribuzioni di
II e III tipo influisce sul grado di curvatura del grafico che le rappresenta; all’aumentare di k,
GII e GIII si riducono alla distribuzione di I tipo GI.
Da quanto fin qui detto, appare immediata l’utilità della distribuzione di tipo III, che
contiene esplicitamente un parametro (valore massimo β della grandezza x) di indubbio
interesse quando si va ad analizzare da un punto di vista statistico una grandezza come la
magnitudo dei terremoti.
Anche piuttosto evidente è l’interesse sostanzialmente nullo che riveste per l’analisi del
rischio sismico la distribuzione di tipo II, utilizzabile per l’analisi dei valori più bassi delle
grandezze cui si è interessati.
Epstein e Lomnitz (1966) hanno dimostrato le relazioni che esistono tra alcune
grandezze alle quali è possibile attribuire un significato fisico immediato ed i parametri che
compaiono nella distribuzione di tipo I. Ad esempio, il valore medio m della magnitudo delle
scosse che si verificano in una data regione al di sopra di una soglia Mmin è data da:
m = Mmin + 1/ α
(5.7)
Il numero annuale di eventi sismici con magnitudo maggiore di un dato valore y è
invece:
Appunti per il corso di Geodinamica e Rischi Ambientali – Parte II
Ny = exp(α u) xp(-α y)
Prof. I. Guerra
(5.8)
mentre quello riferito ad un periodo di D anni è semplicemente DNy.
Dalla (5.8) si ricava immediatamente che il periodo di ritorno medio Ty, cioè
l’intervallo di tempo mediamente occorrente tra terremoti di magnitudo superiore ad y, è
fornito da:
Ty = 1/Ny = exp(-α u) exp(α y)
(5.9)
Riveste un certo interesse anche la magnitudo massima modale M, cioè il valore di
magnitudo che più frequentemente risulta essere il massimo annuale. Ovviamente esso è il
valore cui corrisponde il massimo della funzione GI(x) e si calcola semplicemente risolvendo
l’equazione ottenuta eguagliando a zero la derivata di GI(x). Si ricava facilmente:
M=u
(5.10)
Ponendo y = M, dalle (5.8) e (5.9) si ottiene immediatamente:
NM = l
TM = l
Ciò equivale a dire che il periodo medio di ritorno di un terremoto di magnitudo u è
esattamente pari ad 1 anno.
Il valore modale MT per periodi di T anni, cioè il valore massimo di magnitudo
osservato su intervalli temporali di lunghezza T, è fornito da:
MT = u + (ln T) / α
(5.11)
Ricordando il significato della funzione G(x) (probabilità che x sia il valore massimo
annuale della variabile X o, equivalentemente, probabilità che in un anno la X non superi il
valore x), la probabilità che in un anno venga superato il valore x è data da p(x) = 1 - G(x).
Risolvendo questa relazione come un’equazione in x, il valore della variabile X che ha una
probabilità pari ad un assegnato valore p di non essere superato è dato da:
xp = u - (ln (-ln (1 - p))) / α
(5.12)
Questa espressione non è altro che un caso particolare di quella valida con riferimento
ad un periodo di D anni:
xp(D) = u - (ln (-ln ( l - p))) / α + (ln D) / α
(5.13)
che consente di calcolare il valore xp(D) della variabile X che ha una probabilità pari a p di
non essere superato in D anni (cioè di essere il valore massimo in tale intervallo di tempo).
Da quest’ultima si ricava immediatamente la probabilità RD(x) che in D anni la variabile X
assuma un valore maggiore o uguale ad x:
RD(x) = 1 - exp (- D exp (-α (x - u)))
(5.14)
Secondo Makropoulos e Burton (1986) la distribuzione del III tipo è solitamente
utilizzata per il calcolo dei valori massimi di magnitudo, mentre per la stima di altri
Appunti per il corso di Geodinamica e Rischi Ambientali – Parte II
Prof. I. Guerra
parametri, quali l’accelerazione di picco, la velocità e lo spostamento del suolo si preferisce
far uso dell’equazione del I tipo.
Appunti per il corso di Geodinamica e Rischi Ambientali – Parte II
Prof. I. Guerra
CAPITOLO 6
VALUTAZIONE DEI PARAMETRI DELLE DISTRIBUZIONI
6.1 Distribuzione asintotica di tipo I
È possibile valutare i parametri α e u linearizzando l’equazione (5.3) mediante
un’opportuna sostituzione di variabile; infatti eguagliando i logaritmi naturali degli opposti
dei logaritmi naturali dei suoi due membri si ricava immediatamente la sua forma
equivalente:
ln (-ln GI(x)) = α u - α x
(6.1)
Quest’ultima relazione, ponendo ln( - ln (GI(x)) = z, αu = b e -α = a, si può scrivere
nella forma:
z=ax+b
(6.2)
che evidentemente rappresenta una retta nel piano x, z: il suo coefficiente angolare a ed il suo
termine noto b possono essere calcolati applicando il criterio dei minimi quadrati. Questo
consiste nell’imporre la condizione che sia minima la somma dei quadrati degli scarti δi tra il
valore teorico zci che essa fornisce in corrispondenza del valore della variabile indipendente
ed il valore osservato sperimentalmente zoi.
Si può facilmente dimostrare che i valori di a e di b che soddisfano la condizione dei
minimi quadrati sono dati da:
a=
N Σ xi zoi - Σ xi Σ zoi
N Σ x2i - (Σ xi)2
(6.3a)
b =
Σ zoi Σ xi – Σ xi zoi Σ xi
N Σ x2i - (Σ xi)2
(6.3b)
Il valore “osservato” zoi può essere ricavato dai cataloghi sismici con diverse regole
(plotting rule) proposte da vari autori: in ogni caso gli n valori estremi annuali yi estratti dal
catalogo sismico relativo alla regione in esame devono essere disposti in ordine crescente in
modo che sia y1 ≤ y2 ≤ … ≤ yn. Secondo Lomnitz (1974), la probabilità osservata
sperimentalmente che l’i-esimo valore massimo annuale osservato yi sia appunto un valore
massimo annuale è di solito calcolata con la relazione (“plotting rule”):
G(y(i)) = i / (n + 1)
(6.4)
ma altri autori (Blom, 1958; Kimbel, 1960; Gringorten, 1963) hanno proposto in alternativa
rispettivamente le relazioni:
G(y(i)) = (i - 3/8) / (n + 1/4)
(6.5)
G(y(i)) = (i - 0.5) / n
(6.6)
Appunti per il corso di Geodinamica e Rischi Ambientali – Parte II
Prof. I. Guerra
G(y(i)) = (i - 0.44) / (n + 0.12)
(6.7)
Riassumendo, la procedura per la valutazione dei parametri della distribuzione
asintotica di tipo I si realizza nelle seguenti fasi:
1 - identificazione in ciascun intervallo annuale (unitario) del valore massimo della
variabile in esame;
2 - disposizione in ordine crescente dei valori massimi individuati;
3 - valutazione della “probabilità sperimentale” mediante una delle plotting rule (6.4) ÷
(6.7);
4 - calcolo dei parametri a e b della retta (6.2) mediante le relazioni (6.3a-6.3b);
5 - calcolo dei parametri a ed u dalle relazioni:
α = -a
u=b/α
(6.8)
La conoscenza di α e di u consente di calcolare infine i valori delle quantità descritte in
precedenza utilizzando le relazioni (5.7) ÷ (5.l4).
6.2 Distribuzione asintotica di Tipo III
La relazione
GIII(x) = exp -(((β-x)/(β-u))k),
k>0, x≤β, u<β
(5.5)
che esprime la distribuzione asintotica di tipo III non è facilmente linearizzabile come quella
di tipo I e quindi il calcolo dei parametri che vi compaiono presenta un livello di complessità
maggiore.
Il metodo cui si ricorre frequentemente in questo ed in numerosi casi analoghi consiste
nell’attribuire dei valori presumibilmente ben approssimati ai parametri e nel considerare
come incognite del problema le correzioni da apportare a tali valori approssimati per ottenere
i valori esatti: il problema viene quindi espresso in funzione di queste nuove variabili, che, si
suppone che abbiano valori sufficientemente piccoli perchè nello sviluppo in serie di Mac
Laurin siano trascurabili i termini non lineari.
In pratica, la funzione di n variabili y(x1, x2, ……, xn), posto x=x0 + pi con le quantità x0i
note (i = l 2, ..., n), viene espressa come:
y = y (x01, x02, …, x0n) + Σ ∂y/∂pi δpi
(6.9)
supponendo che siano trascurabili i termini in pi2 e quelli di ordine ancora più elevato.
Il principio dei minimi quadrati viene applicato imponendo che sia minima la somma
dei quadrati degli scarti tra gli n valori y0i osservati sperimentalmente e quelli, yci forniti dalla
(6.9): tale condizione fornisce un sistema lineare nelle n incognite pi, la cui soluzione
Appunti per il corso di Geodinamica e Rischi Ambientali – Parte II
Prof. I. Guerra
consente il calcolo di tali incognite che, sommate ai “valori approssimati iniziali” forniscono
i valori cercati delle incognite.
I coefficienti aik ed i termini noti bik del sistema lineare nelle incognite pi hanno
rispettivamente le forme:
aik = ∑j _1_
σ j2
∂y_ ∂y_
∂pj ∂pk
bik = ∑j _1_ [(yj – yoj) ] ∂y
∂pk
σ j2
(6.10)
(6.11)
Nelle (6.10) e (6.11) σj rappresenta l’errore da cui è affetta la j-esima osservazione.
La matrice di covarianza del problema consente di valutare il grado di interdipendenza
delle soluzioni e le incertezze statistiche da cui sono affette le soluzioni, che risultano uguali
ai termini della sua diagonale.
L’entità di tali errori dipende da quella degli scarti tra i valori δi osservati e quelli yoj
ricavati mediante la (5.5) utilizzando per le xi i valori calcolati: ovviamente minori sono tali
scarti, migliore è l’approssimazione con cui il modello matematico (5.5) rappresenta la serie
di dati disponibili. Una valutazione relativa in termini quantitativi della bontà della
rappresentazione è fornita dal cosiddetto “chi quadro”:
χ2 = ∑j (yj - yoj)2 / σj2
(6.12)
Chiaramente al diminuire di χ2 l’accordo tra legge teorica e dati sperimentali migliora.
È da osservare che i valori ottenuti sommando le pi alle x0i non necessariamente
rappresentano la soluzione cercata, in quanto non è detto che a posteriori siano verificate le
ipotesi sulla trascurabilità dei termini non lineari dello sviluppo in serie effettuato. Le
procedure di calcolo adottate di solito consistono nell’assumere i valori ottenuti come “valori
iniziali” di un nuovo ciclo di calcolo e procedere per successive iterazioni fino a quando non
siano soddisfatte adeguate condizioni. Normalmente le correzioni da apportare ai valori
approssimati decrescono da un ciclo al successivo, avendosi così la convergenza verso i
valori che saranno assunti come soluzione definitiva: in dipendenza di vari fattori (natura del
problema da risolvere, quantità e qualità delle osservazioni disponibili, potenza di calcolo
adoperata, precisione richiesta sulle soluzioni, ecc) queste ultime possono essere imposte con
riferimento al numero massimo di cicli di calcolo da compiere, al raggiungimento da parte
delle p di valori inferiori a prefissate soglie, alle variazioni delle pj in due successive
iterazioni, ecc. In vari casi le condizioni possono essere di tipo misto. È ancora il caso di
osservare che la struttura del problema matematico (cioè la forma analitica della 5.5) e le
caratteristiche dei dati disponibili possono in alcuni casi combinarsi in maniera tale che due
linee del determinante del sistema lineare siano linearmente dipendenti: com’è noto, in
questo caso il sistema stesso è indeterminato. Per prevenire questa evenienza, è possibile
utilizzare un espediente suggerito da Levenberg nel 1944 e sviluppato da Marquardt nel
1963. Questo consiste nell’aggiungere una quantità costante θ ai termini della diagonale
principale del sistema. Se tale quantità è sufficientemente grande rispetto ai termini esterni
alla diagonale, il sistema da risolvere si approssima al sistema di n equazioni indipendenti:
Appunti per il corso di Geodinamica e Rischi Ambientali – Parte II
(aii + θ) pi = bi
Prof. I. Guerra
(i = 1, 2, .., n)
(6.13)
che certamente ammette una ed una sola soluzione. Ovviamente le soluzioni ottenute per le pi
non sono del tutto precise, ma la precisione può essere migliorata diminuendo il valore di θ
(eventualmente fino all’azzeramento) man mano che con le successive iterazioni si procede
nella convergenza verso la soluzione che si accetterà. Quando questa procedura viene
utilizzata per il calcolo dei parametri della terza distribuzione di Gumbel, il numero n delle
incognite è 3 ( β, u e k); il numero dei dati è pari a quello degli anni per cui si dispone di dati
sufficienti per valutare il massimo valore osservato del parametro di interesse; i valori
osservati sono le probabilità sperimentali determinate, come descritto in precedenza,
mediante un’adeguata plotting rule. Dette p1, p2 e p3 le correzioni incognite da apportare a
valori approssimati β0, u0 e k0 dei parametri da determinare β, u e k, con alcune semplici
sostituzioni si ha:
∂z / ∂p1 = 1 - ( - ln GIII )k
(6.14)
∂z / ∂p2 = ( - ln GIII )k
(6.15)
∂z / ∂p3 = - (β – u) ( - ln GIII )k (-lnGIII)
(6.16)
Riassumendo, la procedura descritta per la valutazione dei parametri della distribuzione
asintotica di tipo III si realizza nelle seguenti fasi:
1 - identificazione in ciascun intervallo annuale (unitario) del valore massimo della
variabile in esame;
2 - disposizione in ordine crescente dei valori massimi individuati;
3 - valutazione della “probabilità sperimentale” mediante una delle plotting rule (6.4) ÷
(6.7);
4 - individuzione di valori β0, u0 e k0 possibilmente ben approssimati dei parametri da
determinare β, u e k;
5 - calcolo delle correzioni p1, p2 e p3 e quindi dei valori di β, u e k;
6 - analisi della bontà della soluzione e conseguente eventuale reiterazione dei passi 4,
5 e 6.
La conoscenza di p, u e k consente anche in questo caso di calcolare infine i valori delle
quantità descritte in precedenza utilizzando le relazioni (5.7) ÷ (5.14).
Scarica