Cenni sulla statistica degli estremi 5.1 Premessa Nell’ambito della sismologia lo stato attuale delle conoscenze non è ancora tale da consentire una previsione deterministica, cioè la previsione mediante leggi fisiche univoche, di quanto grandi, di dove e di quando si verificheranno i prossimi terremoti distruttivi con un’approssimazione tale da trovare utili applicazioni pratiche. L’importanza del problema impone d’altra parte di esplorare tutte le possibili strade per arrivare ad una sua soluzione quanto meno approssimata per predisporre adeguate misure di prevenzione delle conseguenze negative. Fermo restando che la previsione deterministica dello svolgimento dei fenomeni futuri resta l’obiettivo finale della ricerca scientifica, è allora opportuno sperimentare anche i risultati dell’applicazione di tecniche statistiche. Queste dovrebbero consentire di effettuare una previsione del fenomeno terremoto di tipo probabilistico, una previsione cioè che può essere formulata con grande anticipo, ma che è caratterizzata dalla cosciente accettazione di un certo livello di indeterminazione. Lomnitz (1974) definisce la statistica come l’arte dell’applicazione della teoria della probabilità alla comprensione di un processo. Le tecniche di analisi statistica che solitamente vengono utilizzate nel calcolo della probabilità, adottano dei modelli rappresentanti l’idealizzazione di uno qualsiasi dei processi che si realizzano in natura e cercano di prevederne lo sviluppo indipendentemente dalla conoscenza delle relazioni causa-effetto che legano ciascuna fase a quelle precedenti e successive. Anche la valutazione probabilistica del rischio sismico, che è l’oggetto dei nostri problemi, si riduce all’accettazione di un modello analitico dello sviluppo dell’attività sismica ed alla determinazione dei parametri che compaiono in tale modello cercando di adattarlo ai dati sperimentali disponibili. Molteplici e differenti sono i metodi statistici che vengono usati nel calcolo della pericolosità sismica; questi sono adottati sia singolarmente sia, più spesso, in combinazione e dipendono strettamente dagli scopi che si vogliono raggiungere, nonché dalle informazioni e dai dati che si hanno a disposizione. La scelta tra i modelli teorici che la statistica è in grado di fornire deve essere effettuata criticamente, in maniera tale che il modello selezionato risulti essere il più adeguato possibile per la soluzione del problema che si sta trattando. I modelli statistici che più comunemente vengono adottati negli studi riguardanti la valutazione del rischio sono quelli che utilizzano l’intero processo sia in relazione al tempo (modello poissoniano, modello markoviano), che alla magnitudo (legge di frequenzamagnitudo); altri modelli utilizzano solo parte del processo (teoria dei valori estremi di Gumbel). Una delle maggiori difficoltà che caratterizzano gli studi statistici applicati alla sismologia deriva dal numero generalmente non molto elevato dei dati disponibili. Specie se si vanno ad analizzare cataloghi che coprono periodi di diversi secoli, si deve ammettere che la maggior parte dei terremoti che si sono verificati nel passato non hanno lasciato traccia nelle cronache storiche. In effetti è ovvio che sia rimasta notizia solo dei terremoti di maggiore intensità: è in un certo senso una fortuna che, agli effetti delle applicazioni pratiche, si sia interessati proprio a questi. Appunti per il corso di Geodinamica e Rischi Ambientali – Parte II Prof. I. Guerra 5.2 TEORIA DI GUMBEL 5.2.1 Introduzione Per la stima della magnitudo massima possibile per una certa area, così come per la stima dei periodi di ritorno e della probabilità che si verifichi un terremoto di magnitudo superiore ad un valore prefissato, si può far uso della teoria dei valori estremi di Gumbel (1958). Tale teoria venne originariamente sviluppata da Gumbel negli anni 30 e applicata, per studi di tipo ingegneristico, all’analisi delle piene dei fiumi. Questo fenomeno presenta numerosi aspetti simili a quello dei terremoti. Anche le piene dei fiumi sono infatti un evento relativamente molto frequente, ma che solo in via eccezionale può manifestarsi con dimensioni tali da costituire un pericolo per l’umanità; proprio per la loro elevata frequenza, delle piene “normali” non è rimasta notizia se non da qualche decennio a questa parte e non per tutti i corsi d’acqua; per il passato, si ha notizia solo delle piene di particolare interesse (cioè di particolare entità), la cui frequenza è fortunatamente bassa rispetto al periodo storico per il quale è lecito presumere che le informazioni disponibili siano complete. Altro elemento di grande similitudine tra i due tipi di fenomeni consiste nel fatto che, pur essendo evidenti i legami tra le piene dei fiumi e le loro cause dirette, è ancora impossibile prevederne deterministicamente il verificarsi. Il nucleo sostanziale dell’idea di Gumbel consiste nell’accontentarsi di studiare ed utilizzare la funzione che descrive l’andamento nel tempo dei fenomeno “piena” solo per la parte relativa ai fenomeni di maggiore intensità, che si può in qualche misura considerare nota, senza far riferimento alla parte della stessa funzione che si riferisce ai più frequenti fenomeni di più modeste dimensioni, sui quali non si hanno dati sperimentali, ma che presentano evidentemente scarso interesse ai fini delle valutazioni di pericolosità. Da questa condizione di base deriva il nome di “teoria dei valori estremi” con la quale viene indicata. Allo stato attuale la teoria di Gumbel trova numerose applicazioni nell’analisi di molti fenomeni con caratteristiche simili a quelle descritte, quali per esempio raffiche di vento eccezionali, pericolose per ponti e grattacieli, carichi su solai o ponti, ecc. La prima applicazione della teoria dei valori estremi agli studi di sismicità risale al 1945, quando Nordquist effettuò un’analisi dei terremoti della California Meridionale. In seguito, Dick (1965) applicò la medesima teoria ai terremoti della Nuova Zelanda, mentre Epstein e Lomnitz (1966) la applicarono nuovamente alla California del Sud. Esempi di applicazioni più recenti sono dovuti a Shakal e Willis (1972) per l’area a nord dei Pacifico, a Yegulalp e Kuo (1974) che si interessarono della maggior parte delle regioni sismiche del mondo, a Goswami e Sarmah (1982) che studiarono la regione nord orientale dell’India ed a Gan e Tung (1983) che calcolarono la distribuzione probabile dei valore massimo di magnitudo sismica utilizzando dati mondiali per terremoti superficiali. Applicazioni relative all’area europea furono effettuate da Karnik e Hubnerova (1968), Boschi et al. (1969), Shenkova e Karnik (1970) e Burton (1979). De Vivo et al. nel 1979 la utilizzarono nell’ambito di uno studio che portò alla compilazione della carta sismotettonica dell’Appennino Meridionale. Appunti per il corso di Geodinamica e Rischi Ambientali – Parte II Prof. I. Guerra 5.2.2 Elementi della teoria dei valori estremi Indichiamo con F(x) la probabilità che un certo fenomeno si verifichi in un determinato intervallo di tempo T con un valore x di un suo parametro caratteristico, quale può essere la magnitudo per un terremoto o il livello dell’acqua per un’inondazione. Per comodità di espressione assumiamo T pari ad un anno in modo da poter parlare nel seguito in termini di valori annuali: il valore di T però può in realtà assumere valori a piacere, limitati nella pratica solo dal tipo, dalla qualità e dalla quantità dei dati sperimentali disponibili. Se si indica con Y il valore massimo che la variabile X assume nel detto intervallo di tempo, la stessa Y costituisce una variabile statistica la cui funzione di distribuzione è evidentemente collegata alla F(x): in particolare la probabilità che Y assuma il valore y è uguale al prodotto della probabilità che sia x- y, estendendo il prodotto a tutti i possibili valori x della variabile X. La teoria dei valori estremi enunciata da Gumbel è basata sulle seguenti ipotesi: a) le condizioni prevalenti nel passato devono essere valide anche nel futuro; b) i fenomeni cui si riferiscono i dati sperimentali disponibili sono indipendenti; c) il comportamento dei fenomeni estremi di quelli in studio in un dato periodo sarà nel futuro simile a quello del passato. Il risultato centrale individuato da Gumbel (1958) risulta essere il seguente: se sono verificate le condizioni di indipendenza e di uguale distribuzione delle x (osservazioni di una certa grandezza, es. magnitudo), allora nella maggior parte dei casi di interesse pratico l’andamento della distribuzione dei valori estremi y è poco sensibile alla forma esatta della distribuzione delle xi. In questi casi allora, l’esatta distribuzione degli estremi può essere trovata pur non conoscendo quella delle xi. In realtà, alcune importanti distribuzioni come la normale, l’esponenziale, la poissoniana e la logaritmica si comportano in modo analogo per valori della variabile x tendenti all’infinito, nel senso che tutte hanno un andamento di tipo esponenziale decrescente: F(x) = A exp(- k x) (5.1) La relazione appena scritta si interpreta dicendo che la probabilità che la grandezza X assuma il valore x è F(x). Se si definisce la funzione G(x) come: ⌠x G(x)= | F(τ) dτ ⌡-∞ (5.2) essa viene ad essere la somma delle probabilità di tutti i valori inferiori ad x, cioè viene ad essere la probabilità che x sia il valore massimo della X. D’altra parte è ovvio, per la definizione stessa di probabilità, che il valore di G tende ad 1 quando la x tende al valore massimo possibile di X. É anche abbastanza ovvio che se F(x) tende asintoticamente a 0, allora G(x) tende asintoticamente a 1. Appunti per il corso di Geodinamica e Rischi Ambientali – Parte II Prof. I. Guerra Gumbel (1958) ha dimostrato che, se F(x) è di tipo esponenziale decrescente, cosa che si verifica con notevole frequenza, allora la distribuzione derivata G(x) può assumere tre diverse forme a seconda delle caratteristiche della variabile x. Queste tre forme prendono il nome rispettivamente di distribuzione asintotica di I, II e III tipo. In particolare, la distribuzione asintotica del I tipo è data da: GI(x) = exp(- exp( -α (x - u))), α>0 (5.3) essa è il risultato dell’operazione di integrazione indicata dalla (5.2) nel caso in cui la X sia illimitata sia a destra che a sinistra. Nel caso in cui la X ammette il limite inferiore θ, la (5.2) fornisce la distribuzione statistica di Gumbel di II tipo: GII(x) = exp(-((u - θ)/(x - θ))k), k > 0, x ≥ θ, u > θ ≥ 0 (5.4) mentre si perviene alla distribuzione asintotica di III tipo: GIII(x)= exp (-((β - x)/(β - u))k), k > 0, x ≤ β, u < β (5.5) quando la grandezza x è limitata a destra dal valore massimo possibile β. Si può verificare facilmente che per tutte le tre distribuzioni risulta: G(u) = 1/e (5.6) essendo e la base dei logaritmi naturali. u può quindi essere definito in tutti e tre i casi come il valore della variabile x che ha la probabilità pari ad 1/e ( 36.8%) di essere un estremo annuale. Il significato dei parametri β e θ è rispettivamente quello di valore massimo e minimo possibile per la variabile x. Il valore di k che compare nelle espressioni delle distribuzioni di II e III tipo influisce sul grado di curvatura del grafico che le rappresenta; all’aumentare di k, GII e GIII si riducono alla distribuzione di I tipo GI. Da quanto fin qui detto, appare immediata l’utilità della distribuzione di tipo III, che contiene esplicitamente un parametro (valore massimo β della grandezza x) di indubbio interesse quando si va ad analizzare da un punto di vista statistico una grandezza come la magnitudo dei terremoti. Anche piuttosto evidente è l’interesse sostanzialmente nullo che riveste per l’analisi del rischio sismico la distribuzione di tipo II, utilizzabile per l’analisi dei valori più bassi delle grandezze cui si è interessati. Epstein e Lomnitz (1966) hanno dimostrato le relazioni che esistono tra alcune grandezze alle quali è possibile attribuire un significato fisico immediato ed i parametri che compaiono nella distribuzione di tipo I. Ad esempio, il valore medio m della magnitudo delle scosse che si verificano in una data regione al di sopra di una soglia Mmin è data da: m = Mmin + 1/ α (5.7) Il numero annuale di eventi sismici con magnitudo maggiore di un dato valore y è invece: Appunti per il corso di Geodinamica e Rischi Ambientali – Parte II Ny = exp(α u) xp(-α y) Prof. I. Guerra (5.8) mentre quello riferito ad un periodo di D anni è semplicemente DNy. Dalla (5.8) si ricava immediatamente che il periodo di ritorno medio Ty, cioè l’intervallo di tempo mediamente occorrente tra terremoti di magnitudo superiore ad y, è fornito da: Ty = 1/Ny = exp(-α u) exp(α y) (5.9) Riveste un certo interesse anche la magnitudo massima modale M, cioè il valore di magnitudo che più frequentemente risulta essere il massimo annuale. Ovviamente esso è il valore cui corrisponde il massimo della funzione GI(x) e si calcola semplicemente risolvendo l’equazione ottenuta eguagliando a zero la derivata di GI(x). Si ricava facilmente: M=u (5.10) Ponendo y = M, dalle (5.8) e (5.9) si ottiene immediatamente: NM = l TM = l Ciò equivale a dire che il periodo medio di ritorno di un terremoto di magnitudo u è esattamente pari ad 1 anno. Il valore modale MT per periodi di T anni, cioè il valore massimo di magnitudo osservato su intervalli temporali di lunghezza T, è fornito da: MT = u + (ln T) / α (5.11) Ricordando il significato della funzione G(x) (probabilità che x sia il valore massimo annuale della variabile X o, equivalentemente, probabilità che in un anno la X non superi il valore x), la probabilità che in un anno venga superato il valore x è data da p(x) = 1 - G(x). Risolvendo questa relazione come un’equazione in x, il valore della variabile X che ha una probabilità pari ad un assegnato valore p di non essere superato è dato da: xp = u - (ln (-ln (1 - p))) / α (5.12) Questa espressione non è altro che un caso particolare di quella valida con riferimento ad un periodo di D anni: xp(D) = u - (ln (-ln ( l - p))) / α + (ln D) / α (5.13) che consente di calcolare il valore xp(D) della variabile X che ha una probabilità pari a p di non essere superato in D anni (cioè di essere il valore massimo in tale intervallo di tempo). Da quest’ultima si ricava immediatamente la probabilità RD(x) che in D anni la variabile X assuma un valore maggiore o uguale ad x: RD(x) = 1 - exp (- D exp (-α (x - u))) (5.14) Secondo Makropoulos e Burton (1986) la distribuzione del III tipo è solitamente utilizzata per il calcolo dei valori massimi di magnitudo, mentre per la stima di altri Appunti per il corso di Geodinamica e Rischi Ambientali – Parte II Prof. I. Guerra parametri, quali l’accelerazione di picco, la velocità e lo spostamento del suolo si preferisce far uso dell’equazione del I tipo. Appunti per il corso di Geodinamica e Rischi Ambientali – Parte II Prof. I. Guerra CAPITOLO 6 VALUTAZIONE DEI PARAMETRI DELLE DISTRIBUZIONI 6.1 Distribuzione asintotica di tipo I È possibile valutare i parametri α e u linearizzando l’equazione (5.3) mediante un’opportuna sostituzione di variabile; infatti eguagliando i logaritmi naturali degli opposti dei logaritmi naturali dei suoi due membri si ricava immediatamente la sua forma equivalente: ln (-ln GI(x)) = α u - α x (6.1) Quest’ultima relazione, ponendo ln( - ln (GI(x)) = z, αu = b e -α = a, si può scrivere nella forma: z=ax+b (6.2) che evidentemente rappresenta una retta nel piano x, z: il suo coefficiente angolare a ed il suo termine noto b possono essere calcolati applicando il criterio dei minimi quadrati. Questo consiste nell’imporre la condizione che sia minima la somma dei quadrati degli scarti δi tra il valore teorico zci che essa fornisce in corrispondenza del valore della variabile indipendente ed il valore osservato sperimentalmente zoi. Si può facilmente dimostrare che i valori di a e di b che soddisfano la condizione dei minimi quadrati sono dati da: a= N Σ xi zoi - Σ xi Σ zoi N Σ x2i - (Σ xi)2 (6.3a) b = Σ zoi Σ xi – Σ xi zoi Σ xi N Σ x2i - (Σ xi)2 (6.3b) Il valore “osservato” zoi può essere ricavato dai cataloghi sismici con diverse regole (plotting rule) proposte da vari autori: in ogni caso gli n valori estremi annuali yi estratti dal catalogo sismico relativo alla regione in esame devono essere disposti in ordine crescente in modo che sia y1 ≤ y2 ≤ … ≤ yn. Secondo Lomnitz (1974), la probabilità osservata sperimentalmente che l’i-esimo valore massimo annuale osservato yi sia appunto un valore massimo annuale è di solito calcolata con la relazione (“plotting rule”): G(y(i)) = i / (n + 1) (6.4) ma altri autori (Blom, 1958; Kimbel, 1960; Gringorten, 1963) hanno proposto in alternativa rispettivamente le relazioni: G(y(i)) = (i - 3/8) / (n + 1/4) (6.5) G(y(i)) = (i - 0.5) / n (6.6) Appunti per il corso di Geodinamica e Rischi Ambientali – Parte II Prof. I. Guerra G(y(i)) = (i - 0.44) / (n + 0.12) (6.7) Riassumendo, la procedura per la valutazione dei parametri della distribuzione asintotica di tipo I si realizza nelle seguenti fasi: 1 - identificazione in ciascun intervallo annuale (unitario) del valore massimo della variabile in esame; 2 - disposizione in ordine crescente dei valori massimi individuati; 3 - valutazione della “probabilità sperimentale” mediante una delle plotting rule (6.4) ÷ (6.7); 4 - calcolo dei parametri a e b della retta (6.2) mediante le relazioni (6.3a-6.3b); 5 - calcolo dei parametri a ed u dalle relazioni: α = -a u=b/α (6.8) La conoscenza di α e di u consente di calcolare infine i valori delle quantità descritte in precedenza utilizzando le relazioni (5.7) ÷ (5.l4). 6.2 Distribuzione asintotica di Tipo III La relazione GIII(x) = exp -(((β-x)/(β-u))k), k>0, x≤β, u<β (5.5) che esprime la distribuzione asintotica di tipo III non è facilmente linearizzabile come quella di tipo I e quindi il calcolo dei parametri che vi compaiono presenta un livello di complessità maggiore. Il metodo cui si ricorre frequentemente in questo ed in numerosi casi analoghi consiste nell’attribuire dei valori presumibilmente ben approssimati ai parametri e nel considerare come incognite del problema le correzioni da apportare a tali valori approssimati per ottenere i valori esatti: il problema viene quindi espresso in funzione di queste nuove variabili, che, si suppone che abbiano valori sufficientemente piccoli perchè nello sviluppo in serie di Mac Laurin siano trascurabili i termini non lineari. In pratica, la funzione di n variabili y(x1, x2, ……, xn), posto x=x0 + pi con le quantità x0i note (i = l 2, ..., n), viene espressa come: y = y (x01, x02, …, x0n) + Σ ∂y/∂pi δpi (6.9) supponendo che siano trascurabili i termini in pi2 e quelli di ordine ancora più elevato. Il principio dei minimi quadrati viene applicato imponendo che sia minima la somma dei quadrati degli scarti tra gli n valori y0i osservati sperimentalmente e quelli, yci forniti dalla (6.9): tale condizione fornisce un sistema lineare nelle n incognite pi, la cui soluzione Appunti per il corso di Geodinamica e Rischi Ambientali – Parte II Prof. I. Guerra consente il calcolo di tali incognite che, sommate ai “valori approssimati iniziali” forniscono i valori cercati delle incognite. I coefficienti aik ed i termini noti bik del sistema lineare nelle incognite pi hanno rispettivamente le forme: aik = ∑j _1_ σ j2 ∂y_ ∂y_ ∂pj ∂pk bik = ∑j _1_ [(yj – yoj) ] ∂y ∂pk σ j2 (6.10) (6.11) Nelle (6.10) e (6.11) σj rappresenta l’errore da cui è affetta la j-esima osservazione. La matrice di covarianza del problema consente di valutare il grado di interdipendenza delle soluzioni e le incertezze statistiche da cui sono affette le soluzioni, che risultano uguali ai termini della sua diagonale. L’entità di tali errori dipende da quella degli scarti tra i valori δi osservati e quelli yoj ricavati mediante la (5.5) utilizzando per le xi i valori calcolati: ovviamente minori sono tali scarti, migliore è l’approssimazione con cui il modello matematico (5.5) rappresenta la serie di dati disponibili. Una valutazione relativa in termini quantitativi della bontà della rappresentazione è fornita dal cosiddetto “chi quadro”: χ2 = ∑j (yj - yoj)2 / σj2 (6.12) Chiaramente al diminuire di χ2 l’accordo tra legge teorica e dati sperimentali migliora. È da osservare che i valori ottenuti sommando le pi alle x0i non necessariamente rappresentano la soluzione cercata, in quanto non è detto che a posteriori siano verificate le ipotesi sulla trascurabilità dei termini non lineari dello sviluppo in serie effettuato. Le procedure di calcolo adottate di solito consistono nell’assumere i valori ottenuti come “valori iniziali” di un nuovo ciclo di calcolo e procedere per successive iterazioni fino a quando non siano soddisfatte adeguate condizioni. Normalmente le correzioni da apportare ai valori approssimati decrescono da un ciclo al successivo, avendosi così la convergenza verso i valori che saranno assunti come soluzione definitiva: in dipendenza di vari fattori (natura del problema da risolvere, quantità e qualità delle osservazioni disponibili, potenza di calcolo adoperata, precisione richiesta sulle soluzioni, ecc) queste ultime possono essere imposte con riferimento al numero massimo di cicli di calcolo da compiere, al raggiungimento da parte delle p di valori inferiori a prefissate soglie, alle variazioni delle pj in due successive iterazioni, ecc. In vari casi le condizioni possono essere di tipo misto. È ancora il caso di osservare che la struttura del problema matematico (cioè la forma analitica della 5.5) e le caratteristiche dei dati disponibili possono in alcuni casi combinarsi in maniera tale che due linee del determinante del sistema lineare siano linearmente dipendenti: com’è noto, in questo caso il sistema stesso è indeterminato. Per prevenire questa evenienza, è possibile utilizzare un espediente suggerito da Levenberg nel 1944 e sviluppato da Marquardt nel 1963. Questo consiste nell’aggiungere una quantità costante θ ai termini della diagonale principale del sistema. Se tale quantità è sufficientemente grande rispetto ai termini esterni alla diagonale, il sistema da risolvere si approssima al sistema di n equazioni indipendenti: Appunti per il corso di Geodinamica e Rischi Ambientali – Parte II (aii + θ) pi = bi Prof. I. Guerra (i = 1, 2, .., n) (6.13) che certamente ammette una ed una sola soluzione. Ovviamente le soluzioni ottenute per le pi non sono del tutto precise, ma la precisione può essere migliorata diminuendo il valore di θ (eventualmente fino all’azzeramento) man mano che con le successive iterazioni si procede nella convergenza verso la soluzione che si accetterà. Quando questa procedura viene utilizzata per il calcolo dei parametri della terza distribuzione di Gumbel, il numero n delle incognite è 3 ( β, u e k); il numero dei dati è pari a quello degli anni per cui si dispone di dati sufficienti per valutare il massimo valore osservato del parametro di interesse; i valori osservati sono le probabilità sperimentali determinate, come descritto in precedenza, mediante un’adeguata plotting rule. Dette p1, p2 e p3 le correzioni incognite da apportare a valori approssimati β0, u0 e k0 dei parametri da determinare β, u e k, con alcune semplici sostituzioni si ha: ∂z / ∂p1 = 1 - ( - ln GIII )k (6.14) ∂z / ∂p2 = ( - ln GIII )k (6.15) ∂z / ∂p3 = - (β – u) ( - ln GIII )k (-lnGIII) (6.16) Riassumendo, la procedura descritta per la valutazione dei parametri della distribuzione asintotica di tipo III si realizza nelle seguenti fasi: 1 - identificazione in ciascun intervallo annuale (unitario) del valore massimo della variabile in esame; 2 - disposizione in ordine crescente dei valori massimi individuati; 3 - valutazione della “probabilità sperimentale” mediante una delle plotting rule (6.4) ÷ (6.7); 4 - individuzione di valori β0, u0 e k0 possibilmente ben approssimati dei parametri da determinare β, u e k; 5 - calcolo delle correzioni p1, p2 e p3 e quindi dei valori di β, u e k; 6 - analisi della bontà della soluzione e conseguente eventuale reiterazione dei passi 4, 5 e 6. La conoscenza di p, u e k consente anche in questo caso di calcolare infine i valori delle quantità descritte in precedenza utilizzando le relazioni (5.7) ÷ (5.14).