A.1.2 Trasformazioni Nonlineari di Variabili Aleatorie

A.1.2. TRASFORMAZIONI NONLINEARI DI VARIABILI ALEATORIE (MONODIMENSIONALI)
A.1.2
441
Trasformazioni Nonlineari di Variabili Aleatorie (monodimensionali)
Consideriamo una trasformazione nonlineare monodimensionale g(·) che definisce la variabile aleatoria x a partire dalla variabile
aleatoria u, i.e.:
x = g(u)
Per semplicità, limitiamoci inizialmente a considerare il caso di trasformazione invertibile, i.e. esiste la trasformazione inversa
u = γ(x)
con γ(·) tale che
γ g(u) = u
Considerato, allora, un generico intervallo Iu sull’asse della variabile aleatoria u, e il corrispondente intervallo Ix = {x : x =
g(u), u ∈ Iu } sull’asse della variabile aleatoria u, gli eventi Eu = {u ∈ Iu } e Ex = {x ∈ Ix } hanno medesima probabilità di
verificarsi, i.e.
pX (x) dx =
Ix
pU (u) du
Iu
Poichè l’equilibrio delle probabilità deve mantenersi comunque scelto l’intervallo Iu , possiamo scrivere
pX (x) |dx| = pU (u) du (A.1.3)
u=γ(x)
Come anche illustrato in Fig.A.1.1, vale la pena notare il ruolo giocato dalla funzione inversa γ(·) nel riportare la misura di
probabilità dalla variabile aleatoria u alla variabile aleatoria x. Il valore assoluto sul differenziale a primo membro tiene conto
della possibile pendenza negativa della funzione g(·).
x = g(u)
retta tangente
dx = g'(u) du
u = g(x)
du = g'(x) dx
P {x Î dx} = P {u Î du}
a
pX (x) dx = pU (u) du
f
u=g( x )
pX (x)= pU ( g(x))× g'(x)
Figura A.1.1: Trasformazione invertibile di variabile aleatoria. Si noti che per riportare la misura di probabilità da una variabile
all’altra, occorre anche considerare anche la retta tangente alla curva, la cui pendenza è misurata dalla derivata prima. Inoltre,
detta x = g(u) la trasformazione sotto analisi, la misura della pendenza è correttamente espressa dalla la derivata prima della
funzione inversa u = γ(x).
La (A.1.3) permette di calcolare la densità di probabilità pX (x) dopo aver esplicitato la relazione tra i differenziali:
du
= γ (x)
dx
Otteniamo, quindi:
pX (x) = pU (γ(x)) · γ (x)
(A.1.4)
In altre parole, la funzione inversa u = γ(x) governa il trasferimento della misura di probabilità dalla variabile aleatoria u alla
variabile aleatoria x; per intervalli infinitesimi, la curva si approssima mediante la retta tangente e, conseguentemente, appare
anche la derivata prima γ (x).
Qualora la derivazione della funzione inversa γ(·) presentasse una qualche difficoltà, tenendo presente che dx/du = g (u),
possiamo anche scrivere:
pX (x) = pU (γ(x)) ·
1
|g (γ(x))|
(A.1.5)
442
APPENDICE A.1. ELEMENTI DI TEORIA DELLA PROBABILITÀ
Trasformazioni nonlineari del tipo “molti a uno”
Se la funzione g(·) non è iniettiva, i.e. più valori di u corrispondono allo stesso valore di x, possiamo considerare separatamente
gli intervalli di iniettività (monotonia) della funzione g(·), applicando a ciascun intervallo quanto sopra esposto. Allora, detto L
il numero di intervalli di monotonia della funzione g(·), osserviamo che solo L(x) ≤ L intervalli di monotonia contribuiscono a
determinare un particolare assegnato valore x, i.e. fissato x, l’equazione
g(u) = x
ammette L(x) radici distinte che chiamiamo ul = γl (x) per l = 1, · · · , L(x).
La densità di probabilità si ottiene sommando sugli L(x) intervalli di monotonia:
L(x)
pX (x) =
pU (γl (x)) · γl (x)
l=1
oppure, se si preferisce,
L(x)
pX (x) =
pU (γl (x)) ·
l=1
1
|g (γl (x))|
Esempio: trasformazione parabolica (quadratore)
Il dispositivo che opera una trasformazione parabolica è spesso riferito come “quadratore”. Con riferimento alla Fig.A.1.2, la trasformazione
d’interesse è
x = u2
(A.1.6)
con u variabile aleatoria che può assumere, in generale, sia valori positivi che negativi.
g(u) = u2
g1(x) = x
g2(x) = - x
x = u2
u
u2 = - x
0
u1 = x
Figura A.1.2: Trasformazione parabolica (quadratore).
In questo caso, la (A.1.6) risulta non iniettiva per x ≥ 0, con L = 2 intervalli di monotonia, u < 0, e u ≥ 0. Per x ≥ 0 l’equazione
u2 = x
√
√
√
(x) = ±1/2 x.
ammette sempre L(x) = 2, i.e. u1,2 = ± x. Le due funzioni inverse sono quindi γ1,2 (x) = ± x, con derivate prime γ1,2
La densità di probabilità della variabile aleatoria x prende la forma seguente, valida solo per x ≥ 0:
1
1
1
pX (x) = √ · pU √
+ pU − √
2 x
x
x
Nel caso in cui la variabile aleatoria u assume solo valori non negativi, allora la (A.1.6) è invertibile, e abbiamo, per x ≥ 0:
1
1
pX (x) = √ · pU √
, quando risulta pU (u) = 0 per u < 0
2 x
x
Se invece la variabile aleatoria u assume solo valori non positivi, abbiamo, sempre solo per x ≥ 0:
1
1
pX (x) = √ · pU − √
, quando risulta pU (u) = 0 per u > 0
2 x
x
A.1.3. TRASFORMAZIONI NONLINEARI DI VARIABILI ALEATORIE (N -DIMENSIONALI)
A.1.3
443
Trasformazioni Nonlineari di Variabili Aleatorie (N -dimensionali)
Consideriamo N variabili aleatorie (x1 , x2 , · · · , xN ) ottenute per trasformazione nonlineare invertibile da altre N variabili
aleatorie (u1 , u2 , · · · , uN ):
x1 = g1 (u1 , u2 , · · · , uN ) ;
x2 = g2 (u1 , u2 , · · · , uN ) ;
xN = gN (u1 , u2 , · · · , uN )
Essendo la trasformazione invertibile, dalle N funzioni g1 (· · ·), · · · , gN (· · ·) possiamo determinare le N trasformazioni inverse:
u1 = γ1 (x1 , x2 , · · · , xN )
;
u2 = γ2 (x1 , x2 , · · · , xN ) ;
uN = γN (x1 , x2 , · · · , xN );
e calcolare lo Jacobiano della trasformazione:
⎡
∂γ1 (· · · )
⎢
⎢ ∂u1
⎢
⎢
⎢ ∂γ2 (· · · )
⎢
⎢ ∂u1
def J (x1, x2 , · · · , xN ) = det ⎢
⎢
⎢
..
⎢
.
⎢
⎢
⎢
⎣ ∂γN (· · · )
∂u1
∂γ1 (· · · )
∂u2
···
∂γ2 (· · · )
∂u2
···
..
.
..
.
∂γN (· · · )
∂u2
···
(A.1.7)
⎤
∂γ1 (· · · ) ⎥
∂uN ⎥
⎥
⎥
∂γ2 (· · · ) ⎥
⎥
∂uN ⎥
⎥
⎥
⎥
..
⎥
.
⎥
⎥
⎥
∂γN (· · · ) ⎦
∂uN
Lo Jacobiano permette di scrivere riportare la trasformazione nonlineare nelle densità di probabilità:1.1
pX1 ,X2 ,···,XN (x1 , x2 , · · · , xN ) = pU1,U2 ,···,UN γ1 (x1 , x2 , · · · , xN ), · · · , γN (x1 , x2 , · · · , xN ) · J (x1 , x2 , · · · , xN )
(A.1.8)
Nel caso di trasformazioni nonlineari suriettive ma non iniettive si procede sostanzialmente come descritto per il caso monodimensionale.
1.1 Nella
(A.1.8), il lettore attento avrà riconosciuto il passaggio fondamentale della tecnica cosiddetta “d’integrazione per sostituzione”, impiegata
nell’integrazione di funzioni di più variabili. L’unica differenza, sostanziale, consiste nel fatto che la probabilità di eventi associati a intervalli
definiti sullo spazio delle variabili aleatorie (γ1 (x1 , x2 , · · · , xN ) si ottiene mediante integrazione della densità di probabilità, i.e.
P {(x1 , x2 , · · · , xN ) ∈ I} def
=
···
pX1 ,X2 ,···,XN (x1 , x2 , · · · , xN ) dx1 dx2 , · · · , dxN
(x1 ,x2 ,···,xN )∈I
per cui lo Jacobiano deve far parte integrante della densità di probabilità dopo la trasformazione, come indicato nella (A.1.8).
Nel caso di un integrale di più variabili, invece, lo Jacobiano determina come si modifica l’elemento di ipervolume misurato dal prodotto dei
differenziali, i.e.
du1 du2 , · · · , duN = J(x1 , x2 , · · · , xN ) · dx1 dx2 , · · · , dxN
Allora, la (A.1.8) esprime il fatto che, dopo aver trasformato l’elemento di ipervolume, per ottenere la densità di probabilità delle variabili aleatorie
(x1 , x2 , · · · , xN ) dopo la trasformazione, occorre avere l’accortezza di considerare il prodotto dello Jacobiano con la densità di probabilità
delle variabili aleatorie (u1 , u2 , · · · , uN ), avendo effettuato in quest’ultima il necessario cambio di variabile definito dalle trasformazioni inverse
(A.1.7).
444
APPENDICE A.1. ELEMENTI DI TEORIA DELLA PROBABILITÀ
A.1.4
Variabili Aleatorie Gaussiane
def
La densità di probabilità di N variabili aleatorie x = [x1 , · · · , xN ]T congiuntamente gaussiane si scrive come segue:
1
(x − η x )T · K−1
x · (x − η x )
pX (x) = exp −
2
(2π)N · det Kx
(A.1.9)
def
def
dove η x = E {x} = [η1 , · · · , ηN ]T è il vettore dei valori medi, e Kx = E (x − η x ) · (x − η x )T e la matrice di covarianza.
Notiamo che la matrice di covarianza è simmetrica per costruzione, i.e. KT
x = Kx. Sulla diagonale di Kx troviamo le varianze
delle singole variabili aleatorie, mentre sugli elementi fuori diagonale troviamo le covarianze mutue, i.e.
(Kx)ii = Var{xi } = σi2
(Kx )ik = ρi,k · σi σk
essendo
def
ρi,k = per i = 1, · · · , N
per i, k = 1, · · · , N ; i = k
Cov{xi , xk }
Var{xi } · Var{xk }
il coefficiente di correlazione tra le variabili xi e xk .
La funzione caratteristica assume la forma seguente
T T
1
def
PX (ν) = E ejν x =
pX (x) · ejν x dx = exp jν T · η x · exp − ν T · Kx · ν
2
X
La variabili aleatorie marginali xi sono a distribuziona gaussiana. Infatti
1
PXi (νi ) = PX (0, · · · , 0, νi , 0, · · · , 0) = exp (jνi · ηi ) · exp − νi · σi2 · νi
2
In particolare, nel caso bivariato (N = 2) abbiamo
⎡
⎤
⎢
Kx ⎢
⎣
ρ · σ1 σ2 ⎥
⎥
⎦
σ22
σ12
ρ · σ1 σ2
⎡
;
=
K−1
x
σ12 σ22
⎢
1
⎢
2
(1 − ρ ) ⎣
⎤
σ22
−ρ · σ1 σ2
−ρ · σ1 σ2 ⎥
⎥
⎦
σ12
e quindi
pX1 X2 (x1 , x2 ) =
1
2π · σ1 σ2
1 − ρ2
exp −
1
·
2 (1 − ρ2 )
x1 − η1 x2 − η2
(x2 − η2 )2
(x1 − η1 )2
− 2ρ
+
σ12
σ1
σ2
σ22
A.1.4. VARIABILI ALEATORIE GAUSSIANE
A.1.4.1
445
Caso di Due Variabili Aleatorie Centrate e Normalizzate
Per scrivere la funzione densità di probabilità di due variabili aleatorie congiuntamente gaussiane conviene riferirsi a variabili
centrate e normalizzate (media nulla e varianza unitaria)
def
ζ1 =
x1 − η1
σ1
def
;
ζ2 =
x2 − η2
σ2
e al coefficiente di correlazione
def
ρ = E {ζ1 ζ2 }
Per scopi di compattezza di notazione, introduciamo anche il vettore aleatorio, a media nulla,
def
ζ T = [ζ1 ζ2 ]
avente come matrice di covarianza (diretta e inversa)
⎡
⎤
⎢1
def
Kζ = E ζ ζ T = ⎢
⎣
ρ
ρ⎥
⎥
⎦
1
⎡
K−1
ζ
;
⎤
1
1 ⎢
⎢
=
1 − ρ2 ⎣
−ρ
−ρ⎥
⎥
⎦
1
(A.1.10)
Possiamo allora utilizzare l’espressione della funzione densità di probabilità nel caso generale di N variabili aleatorie congiuntamente gaussiane, collezionate nel vettore ζ T = [ζ1 · · · ζN ], i.e.
pZ (ζ) = 1
(2π)N · det Kζ
exp
ζ T · K−1
ζ ·ζ
−
2
(A.1.11)
Sostituendo le (A.1.10) nella (A.1.11) otteniamo la funzione densità di probabilità di una coppia di variabili aleatorie congiuntamente gaussiane, centrate e normalizzate:
pZ1 ,Z2 (ζ1 , ζ2 ) =
2π
2
1
ζ − 2ρ ζ1 ζ2 + ζ22
exp − 1
2(1 − ρ2 )
1 − ρ2
(A.1.12)
Nelle Figg. A.1.3 e A.1.4 è riportato l’andamento delle densità di probabilità (A.1.12), rispettivamente per ρ = 0 e ρ = 0.85. Per
ρ = 0, le curve di livello sono delle ellissi con assi principali ruotati di π/4 o −π/4, rispettivamente per ρ > 0 e ρ < 0. Infatti,
fissato un livello K, e al variare di ζ1 e ζ2 , la condizione
pZ1 ,Z2 (ζ1 , ζ2 ) = K
individua la stessa curva ottenuta dalla condizione
ζ12 − 2ρ ζ1 ζ2 + ζ22 = −2 1 − ρ2 · ln 2πK 1 − ρ2
che è proprio un ellisse come detto sopra.
Nel caso ρ = 0 le curve di livello degenerano in circonferenze. In questo caso, infatti, le due variabili aleatorie diventano
incorrelate e, in quanto gaussiane, anche statisticamente indipendenti, i.e. la densità di probabilità congiunta si fattorizza nel
prodotto delle densità di probabilità marginali
2
2
2
1
1
ζ1 + ζ22
1
pZ1 ,Z2 (ζ1 , ζ2 ) =
exp −
= √ e−ζ1 /2 · √ e−ζ2 /2
2π
2
2π
2π
p
Z1 (ζ1 )
p
Z2 (ζ2 )
Notiamo che, in questo caso, la pZ1 ,Z2 (ζ1 , ζ2 ) è una funzione a simmetria circolare, in quanto dipende solo dalla somma ζ12 + ζ22 .
Nelle stesse figure é riportato anche il diagramma di scatteramento, ottenuto considerando 5000 realizzazioni ottenute effettuando sorteggi statisticamente indipendenti in accordo alla (A.1.12). Tali diagrammi confermano che, nel caso gaussiano, il
legame statistico che sussiste tra le due variabili aleatorie è completamente spiegato dalla seguente relazione lineare:
ζ2 = ρ · ζ1 +
1 − ρ2 · w
(A.1.13)
446
APPENDICE A.1. ELEMENTI DI TEORIA DELLA PROBABILITÀ
dove w è una variabile aleatoria gaussiana, anch’essa centrata e normalizzata, statisticamente indipendente da ζ1 . Dalla (A.1.13)
osserviamo che ζ2 é una variabile aleatoria gaussiana a media nulla, in quanto somma di variabili aleatorie gaussiane a media
nulla. La varianza si calcola facilmente. Infatti, poichè ζ1 è statisticamente indipendente da w, possiamo scrivere
Var{ζ2 } = ρ2 · Var{ζ1 } + 1 − ρ2 · Var{w} = 1
1
1
Per quanto riguardo il coefficiente di correlazione, poiché le variabili sono anche centrate e normalizzate, possiamo scrivere
= ρ · E {ζ1 · ζ1 } + 1 − ρ2 · E {ζ1 · w} = ρ
E {ζ1 · ζ2 } = E ζ1 · ρ · ζ1 + 1 − ρ2 · w
Var{ζ1 }=1
E{ζ1 }·E{w}=0
Osservando la (A.1.13), possiamo concludere che, per ρ → 1 e considerando diversi sorteggi, per ciascun sorteggio le realizzazioni
della variabile aleatoria ζ2 tendono a coincidere con quelle di ζ1 . Il diagramma di scatteramento tenderà a formare una nuvola di
punti intorno alla retta con pendenza π/4 (cfr. Fig.A.1.4). Per ρ → −1 succede lo stesso a parte un cambiamento di segno, per
cui la nuvola di punti si addenserà intorno alla retta con pendenza −π/4.
Per ρ = 0 le variabili aleatorie sono statisticamente indipendenti, e la nuvola di punti assume una forma circolare (cfr.
Fig.A.1.3).
In conclusione, come potevamo aspettare, i diagrammi di scatteramento presentano nuvole di punti che si addensano intorno
alle stesse figure geometriche presenti nel diagramma delle curve di livello della densità di probabilità.
A.1.4. VARIABILI ALEATORIE GAUSSIANE
447
Figura A.1.3: Densità di probabilità (superficie e curve di livello) e diagramma di scatteramento pertinente a due variabili
aleatorie gaussiane a media nulla, varianza unitaria e coefficiente di correlazione ρ = 0.
448
APPENDICE A.1. ELEMENTI DI TEORIA DELLA PROBABILITÀ
Figura A.1.4: Densità di probabilità (superficie e curve di livello) e diagramma di scatteramento pertinente a due variabili
aleatorie gaussiane a media nulla, varianza unitaria e coefficiente di correlazione ρ = 0.85.
A.1.4. VARIABILI ALEATORIE GAUSSIANE
A.1.4.2
449
Caso Generale di Due Variabili Aleatorie
def
Consideriamo ora il caso generale di variabili aleatorie x = [x1 x2 ]T, con medie non nulle e varianze non unitarie. Definendo il
def
vettore dei valori medi η x = [η1 η2 ]T e la matrice di covarianza
⎡
⎢
def
Kx = E (x − η x ) · (x − η x )T = ⎢
⎣
⎤
σ12
ρ · σ1 σ2
ρ · σ1 σ2 ⎥
⎥
⎦
2
σ2
possiamo scrivere la densità di probabilità congiunta come segue
1
(x − η x )T · K−1
· (x − η x )
x
exp −
px (x) =
2
2πσ1 σ2 · 1 − ρ2
(A.1.14)
Dobbiamo quindi analizzare le ellissi descritte dall’equazione
(x − η x )T · K−1
x · (x − η x ) = C
(A.1.15)
che si ottengono da quelle descritte dall’equazione
xT · K−1
x ·x = C
centrandole nel punto di coordinate (η1 , η2 ).
⎡
Poichè abbiamo
=
K−1
x
⎢
1
⎢
σ12 σ22 (1 − ρ2 ) ⎣
⎤
−ρ · σ1 σ2 ⎥
⎥
⎦
2
σ1
σ22
−ρ · σ1 σ2
le ellissi che interessano sono descritte dall’equazione
x1 x2
x2
x21
+ 22 = C 2 − 2ρ
σ1
σ1 σ2
σ2
(A.1.16)
con C = 1 − ρ2 · C.
Per scrivere l’ellisse in forma canonica, i.e.
dobbiamo determinare la matrice di rotazione1.2
ξ2
ξ12
+ 22 = C 2
a
b
Q che porta il sistema di riferimento cartesiano (x1 , x2 ) nel sistema di riferimento
cartesiano (ξ1 , ξ2 ). Sostituendo x = QT · ξ nella (A.1.15) otteniamo
T
ξ T · Q · K−1
x Q ξ = C
Quindi, l’equazione canonica si ottiene quando risulta
⎡
1
⎢ 2
T
⎢
a
Q · K−1
·
Q
=
x
⎣
0
⎤
0⎥
⎥
⎦
1
b2
o, equivalentemente, essendo Q una matrice di rotazione,
⎤
⎡
⎢a
Q · Kx · QT = ⎢
⎣
2
0
1.2 Una
0⎥
⎥
⎦
2
b
matrice di rotazione gode delle due seguenti proprietà:
Q · QT = QT · Q = I
det Q = 1
450
APPENDICE A.1. ELEMENTI DI TEORIA DELLA PROBABILITÀ
Per inciso, la matrice Q · Kx · QT è proprio la matrice di covarianza del vettore aleatorio ξ = QT · x. Infatti, poichè risulta
def
η ξ = E {ξ} = E QT · x = QT · E {x} = QT · η x
abbiamo:
Kξ = E
T = QT · E (x − η x ) · (x − η x )T · Q = QT · Kx · Q
ξ − ηξ · ξ − ηξ
La matrice Q si determina osservando la scomposizione in autovalori e autovettori1.3 della matrice di covarianza Kx, i.e.
K x = U · Λ · UT
dove la matrice U di rotazione che colleziona gli autovettori nelle colonne, i.e.
def
U = [u1 u2 ]
mentre Λ è la matrice diagonale degli autovalori, i.e.
⎡
def ⎢ λ1
Λ = ⎢
⎣
0
⎤
0⎥
⎥
⎦
λ2
Il nostro problema è risolto ponendo Q = U. Infatti, poichè U é una matrice di rotazione, risulta
T
Kξ = UT· U · Λ · UU
= Λ
I
2
I
2
Conseguentemente, abbiamo anche a = λ1 e b = λ2 .
Calcoliamo ora gli autovalori e gli autovettori di Kx . Gli autovalori s ottengono dalla equazione di secondo grado
det (Kx − λ · I) = 0
Valutando il determinante otteniamo
⎡
⎤
⎢ σ12 − λ
det ⎢
⎣
ρ · σ1 σ2
ρ · σ1 σ2 ⎥ 2
⎥ = σ1 − λ · σ22 − λ − ρ2 · σ12 σ22 = λ2 − σ12 + σ22 · λ + σ12 σ22 1 − ρ2 = 0
⎦
σ22 − λ
Le radici sono
λ1,2 =
1 2
σ1 + σ22 ± (σ12 + σ22 ) − 4σ12 σ22 (1 − ρ2 )
2
⎡
⎤
2
2
2σ1 σ2 ρ
1 ⎣ 2
2
2
⎦
σ1 + σ2 ± σ1 − σ2
1+
=
2
σ12 − σ22
Gli autovettori si ottengono dalle equazione omogenea
(Kx − λi · I) · ui = 0
1.3 Per
una matrice quadrata A, la coppia autovalore λi e autovettore ui è determinata dalla autoequazione
A · ui = λi · ui
che scriviamo anche
(A − λi · I) · ui = 0
Questa equazione omogenea ammette soluzione se e solo se
det (A − λi · I) = 0
condizione che permette di calcolare gli autovalori.
Quando A è simmetrica, i.e. AT = A, gli autovettori corrispondenti ad autovalori distinti risultano mutuamente ortogonali, e la matrice U é
una matrice di rotazione, risultando U · UT = UT · U = I.
A.1.4. VARIABILI ALEATORIE GAUSSIANE
per i = 1, 2. Per i = 1 abbiamo
451
⎤ ⎡
⎡
⎢σ12
⎢
⎣
− λ1
ρ · σ1 σ2
Risolvendo la prima equazione otteniamo
ρ · σ1 σ2 ⎥ ⎢u1,1 ⎥
⎥·⎢
⎥=0
⎦ ⎣
⎦
2
σ2 − λ1
u1,2
⎤
⎡
⎤
⎤
⎡
⎢u1,1 ⎥
⎢−ρ · σ1 σ2 ⎥
⎥ = α1 · ⎢
⎥
u1 = ⎢
⎦
⎦
⎣
⎣
2
u1,2
σ1 − λ1
dove la costante α1 va determinata in modo da avere l’autovettore con norma unitaria, i.e. tale che risulti uT
1 · u1 = 1, quindi
2 2 2
2
2
α1 · σ1 σ1 ρ + (σ1 − λ1 ) = 1.
Possiamo già deteminare la direzione di u1 , ossia l’angolo θ1 formato da u1 con l’asse x1 :
tan θ1 =
Poichè risulta
σ12
− λ1 =
σ12
ρ · σ1 σ2
σ12 − λ1
⎤
⎤
⎡
⎡
2
2
2
2
1 ⎣ 2
2ρ · σ1 σ2 ⎦
2ρ · σ1 σ2 ⎦
1 ⎣ 2
2
2
2
2
−
1+
1+
=
σ1 + σ2 − σ1 − σ2
σ1 − σ2 − σ1 − σ2
2
σ12 − σ22
2
σ12 − σ22
⎛
⎞
2
2ρ · σ1 σ2 ⎠
σ12 − σ22 ⎝
1− 1+
=
2
σ12 − σ22
Posto
A=
2ρ · σ1 σ2
σ12 − σ22
abbiamo quindi
A
√
1 − 1 + A2
Poichè l’angolo θ1 può determinarsi solo nell’intervallo [−π/2, π/2], conviene riferirsi alla tan 2θ1 per la quale si ottiene
tan θ1 =
un’espressione abbastanza semplice. Abbiamo
−1
√
2
1 − 1 + A2
2 tan θ1
2A
A2
2A
√
√
=
·
1
−
=
·
tan 2θ1 =
√
√
2
2
1 − tan2 θ1
1 − 1 + A2
1 − 1 + A2
1 − 1 + A2
1 − 1 + A2 − A2
= 2A ·
=
√
√
1 − 1 + A2
1 − 1 + A2
√
√
=A
= 2A · 1 − 2 1 + A2 + 1 + A2 − A2
2 1 − 1 + A2
(A.1.17)
2ρ · σ1 σ2
σ12 − σ22
L’angolo θ1 misura la rotazione che porta il sistema di riferimento (x1 , x2 ) nel sistema di riferimento (ξ1 , ξ2 ), ossia la rotazione
subita dagli assi principali dell’ellisse.
Per completezza, calcoliamo anche u2 .
⎤ ⎡
⎡
⎢σ12
⎢
⎣
− λ2
ρ · σ1 σ2
⎤
ρ · σ1 σ2 ⎥ ⎢u2,1 ⎥
⎥·⎢
⎥=0
⎦ ⎣
⎦
2
σ2 − λ2
u2,2
Risolvendo la seconda equazione otteniamo
⎡
⎤
⎡
⎤
⎢u2,1 ⎥
⎢ σ2 − λ2 ⎥
⎥ = α2 · ⎢ 2
⎥
u2 = ⎢
⎣
⎣
⎦
⎦
u2,2
−ρ · σ1 σ2
dove la costante α2 va determinata in modo da avere l’autovettore con norma unitaria, i.e. tale che risulti uT
2 · u2 = 1, quindi
2
2
2
2
2
α2 · σ1 σ1 ρ + (σ2 − λ2 ) = 1.
452
APPENDICE A.1. ELEMENTI DI TEORIA DELLA PROBABILITÀ
Per finire:
σ22
− λ2 =
σ22
⎡
⎡
⎤
⎤
2
2
2
2
1 ⎣ 2
2ρ · σ1 σ2 ⎦
2ρ · σ1 σ2 ⎦
1 ⎣ 2
2
2
2
2
σ1 + σ2 − σ2 − σ1
σ2 − σ1 − σ2 − σ1
−
1+
1+
=
2
σ22 − σ12
2
σ22 − σ12
⎞
⎛
2
2ρ · σ1 σ2 ⎠
σ22 − σ12 ⎝
= − σ12 − λ1
1− 1+
=
2
σ22 − σ12
e quindi
σ22 − λ2
σ2 − λ1
1
=− 1
=−
ρ · σ1 σ2
ρ · σ1 σ2
tan θ1
Come doveva risultare, la direzione di u2 risulta ortogonale a quella di u1 .
tan θ2 =
Nelle Figg. A.1.5 e A.1.6 è riportato un esempio per η1 = 1 e η2 = 0.5, σ12 = 1.25 e σ2 = 0.75, rispettivamente per ρ = 0
e ρ = 0.85. Riportiamo anche il calcolo dell’orientazione dell’ellisse nella Fig. A.1.6:
√
√
1
1
2 · 0.85 · 1.25 · 0.75
1
θ1 = arctan
= arctan(3.4 · 0.968) · 73.36 deg 36.68 deg
2
1.25 − 0.75
2
2
A.1.4. VARIABILI ALEATORIE GAUSSIANE
453
Figura A.1.5: Densità di probabilità (superficie e curve di livello) e diagramma di scatteramento pertinente a due variabili
aleatorie gaussiane con valori medi η1 = 1 e η2 = 0.5, varianze σ12 = 1.25 e σ2 = 0.75, e coefficiente di correlazione ρ = 0.
454
APPENDICE A.1. ELEMENTI DI TEORIA DELLA PROBABILITÀ
Figura A.1.6: Densità di probabilità (superficie e curve di livello) e diagramma di scatteramento pertinente a due variabili
aleatorie gaussiane con valori medi η1 = 1 e η2 = 0.5, varianze σ12 = 1.25 e σ2 = 0.75, e coefficiente di correlazione ρ = 0.85.
A.1.4. VARIABILI ALEATORIE GAUSSIANE
A.1.4.3
455
Trasformazioni Lineari di Variabili Aleatorie Gaussiane
def
Sia A una matrice N × N non singolare che trasforma le N variabili aleatorie v = [v1 , · · · , vN ]T nelle N variabili aleatorie
def
x = [x1 , · · · , xN ] , i.e.
T
x=A·v
Non è difficile mostrare che se v colleziona variabili aleatorie congiuntamente gaussiane, anche le variabili aleatorie in x risultano
congiuntamente gaussiane. Ricorrendo alle funzioni caratteristiche possiamo scrivere
T T 1 T
def
jν x
jν Av
T
T
T
PX (ν) = EX e
= EV e
= PV (A ·ν) = exp jν · Aη v · exp − ν · A·KV ·A · ν
2
ηx
Kx
1
= exp jν T · η x · exp − ν T · Kx · ν
2
riconoscendo in PX (ν) la forma di una funzione caratteristica relativa a una distribuzione gaussiana con vettore dei valori medi
η x = A · η v e matrice di covarianza Kx = A · KV · AT .
A.1.4.3.1
Colorazione di N variabili aleatorie gaussiane
Supponiamo di voler “colorare” le N variabili aleatorie v “bianche”, i.e. con η v = 0 e KV = I, nelle variabili aleatorie x con
assegnati vettore dei valori medi η x e matrice di covarianza Kx . Da quanto detto in precedenza, è possibile ottenere questo
risultato mediante un’opportuna trasformazione lineare
x = A · v + ηx
Infatti
E {x} = E {A · v} + E {η x } = A · E {v} + η x = η x
E (x − η x )·(x − η x )
T
= A · E v·v
0
T
· AT = A·AT
Per il valor medio occorre soltanto aggiungere il valore desiderato η x .
Per la covarianza, è necessario che risulti A·AT = Kx . Una matrice A che goda di questa proprietà è una “radice quadrata”
della matrice di covarianza Kx . Notiamo che le radici quadrate sono legate da matrici ortogonali, i.e. per ogni matrice ortogonale
def
Q, la matrice B = A·Q è radice quadrata. Infatti
B·BT = A · Q·QT · AT = A·AT = Kx
I
Dalla scomposizione in autovalori e autovettori di Kx , i.e.
Kx = U·Λ·UT
√
√
def
posto Λ1/2 = diag{ λ1 , · · · , λN }, riconosciamo che le matrici U · Λ1/2 e U · Λ1/2 · UT sono radici quadrate di Kx . In
particolare, notiamo che la matrice U·Λ1/2 ·UT è anche simmetrica.
456
APPENDICE A.1. ELEMENTI DI TEORIA DELLA PROBABILITÀ
A.1.4.3.2
Determinazione di una radice quadrata triangolare mediante scomposizione di Cholensky
Illustriamo il procedimento costruttivo supponendo per comodità, ma senza perdere di generalità, variabili aleatorie ζ centrate
e normalizzate, i.e. ζi = (xi − ηi )/σi2 , per i = 1, · · · , N .1.4 Gli elementi della matrice di covarianza di ζ coincidono con i
coefficienti di correlazione delle variabil x, i.e. (Kζ )i,k = ρi,k .
def
Indichiamo con ai,k = (A)i,k gli elementi della matrice A. Quando gli elementi sono nulli nella parte triangolare superiore,
i.e. ai,k = 0 per k > i, la matrice si dice triangolare in basso.1.5 In questo caso, le equazioni della trasformazione ζ = A·v si
scrivono come segue:
ζ1 = a1,1 ·v1
⎞
⎛
⎟
⎜
2
⎟
ζ2 = ⎜
⎝ a2,1 ·v1 + 1 − a2,1 · v2 ⎠
a2,2
⎞
⎛
⎜
ζ3 = ⎜
⎝ a3,1 ·v1 + a3,2 ·v2 +
⎟
1 − a23,1 − a23,2 · v3 ⎟
⎠
(A.1.18)
a3,3
·········
⎞
&
⎟
⎜
'
i−1
i−1
⎟
⎜
'
⎟
⎜
(
2
ai,k ·vk + 1 −
ai,k · vi ⎟
ζi = ⎜
⎟
⎜
k=1
⎠
⎝ k=1
⎛
ai,i
·········
La trasformazione colora le variabili aleatorie bianche v nelle variabili aleatorie ζ, centrate, normalizzate, e con matrice di
covarianza (Kζ )i,k = ρi,k , quando risulta
1 = a1,1
ρ2,1 = a2,1 ·a1,1
ρ3,1 = a3,1 ·a1,1 ,
ρi,1 = ai,1 ·a1,1 ,
ρi,j
ρ3,2 = a3,1 ·a2,1 + a3,2 ·
·········
&
'
j−1
j−1
'
=
ai,k ·aj,k + ai,j · ( 1 −
a2j,k
k=1
1 − a22,1
(A.1.19)
per j = 2, · · · , i − 1
k=1
·········
Noti i coefficienti di correlazione ρi,j , sfruttando la natura triangolare del sistema di equazioni (A.1.19), i coefficienti ai,k si
determinano mediante il seguente algoritmo di Cholensky.
1.4 Le
variabili aleatorie x si ottengono dalle ζ molto semplicemente:
xi = σi · ζi + ηi ,
1.5 Infatti,
i = 1, · · · , N
una matrice triangolare in basso ha elementi diversi da zero nella parte triangolare in basso, compresa la diagonale, i.e. per i <= k.
A.1.4. VARIABILI ALEATORIE GAUSSIANE
457
Algoritmo di Cholensky
Consideriamo in sequenza i = 1, · · ·, N e per ogni i procediamo in sequenza j = 1, · · · , i. Così facendo, in ciascuna equazione
ρi,j = · · · della (A.1.19) occorre determinare soltanto l’incognita ai,j (le altre sono state già tutte determinate precedentemente).
Abbiamo:
a1,1 = 1
a2,1 = ρ2,1 ,
a3,1 = ρ3,1 ,
a3,2 =
a2,2 =
1 − a22,1
ρ3,2 − a3,1 ·a2,1
,
a2,2
a3,3 =
1 − a23,1 − a23,2
·········
ρi,j −
ai,1 = ρi,1 ,
j−1
ai,k ·aj,k
k=1
ai,j =
per j = 2, · · · , i − 1 ,
aj,j
ai,i
&
'
i−1
'
= (1 −
a2
i,k
k=1
·········
Il numero delle operazioni (moltiplicazioni) necessario per calcolare gli elementi della riga i è O(i2 ), infatti:
i−1
# mul
=
riga i
j=2
j
+
(i − 1)
(i−1) quadrati per ai,i
j mul per ai,j , j=2,··· ,i−1
i−1
=
j=1
− 1 + (i − 1) =
j
i2
i
i · (i + 1)
− +i−2 =
−2
2
2
2
i·(i−1)/2
Quindi, poichè
# mul =
N i · (i + 1)
i=1
2
−2
3
il numero complessivo di moltiplicazioni è O(N ).
Osserviamo una forta criticità di carattere numerico quando, per qualche indice i, risulta ai,i 0.
Per concludere, osserviamo che la (A.1.18) generalizza al caso di N variabili il legame lineare esistente tra due variabili
aleatorie gaussiane mutuamente correlate, già discusso nella (A.1.13).
458
A.1.4.3.3
APPENDICE A.1. ELEMENTI DI TEORIA DELLA PROBABILITÀ
Sbiancamento di N variabili aleatorie gaussiane
Consideriamo, per semplicità ma senza perdere di generalità, N variabili aleatorie x a media nulla, i.e. η x = 0, e matrice di
covarianza Kx. Mediante un’opportuna trasformazione lineare è possibile “sbiancare” x, ossia ottenere N variabili aleatorie v
incorrelate, aventi cioè matrice di covarianza diagonale, diciamo KV = D con D qualsiasi. La trasformazione
v = W T ·x
sbianca quando risulta
KV = E v·vT = W T · E x·xT · W = W T · Kx · W = D
Dalla scomposizione in autovalori e autovettori di Kx , i.e.
Kx = U·Λ·UT
riconosciamo che W = U è una trasformazione sbiancante con D = Λ. Infatti
UT · Kx · U = UT·U · Λ · UT·U = Λ
I
In generale poichè possiamo scrivere
abbiamo
I
−1
T
= D−1
W · Kx · W
W T · Kx · W
−1
−T
= W −1 · K−1
x ·W
e quindi
K−1
= W·D−1 ·W T
x
Le trasformazioni sbiancanti sono quelle che diagonalizzano l’inversa della matrice di covarianza. Quelle che ottengono D = I
differiscono per una matrice ortogonale. Infatti, se risulta W T · Kx · W = I, allora, per Q generica matrice ortogonale, anche
QT W T sbianca. Infatti
QT · W T ·Kx ·W · Q = QT ·Q = I
I
A.1.4.3.4
Determinazione di una trasformazione sbiancante mediante ortogonalizzazione di Gram-Schmidt
Al solito, conviene riferisi a variabili aleatorie centrate e normalizzate ζi = (xi − ηi )/σi per i = 1, · · · , N . Il metodo della
ortogonalizzazione di Gram-Schmidt consiste nel costruire iterativamente le variabili aleatorie mutuamente incorrelate vi , per
i = 1, · · ·, N , utilizzando esclusivamente la variabile aleatoria ζi e le variabili aleatorie vi−1 , vi−2 , · · ·, v1 già determinate, i.e.
v 1 = ζ1
v2 = ζ2 + a2,1 ·v1
v3 = ζ3 + a3,2 ·v2
···
···
···
(A.1.20)
vi+1 = ζi+1 + ai+1,i ·vi
···
···
···
Affinché v2 risulti incorrelata con v1 , deve risultare a2,1 = −ρζ2 ,v1 = −ρ2,1 . Proseguendo, affinché v3 risulti incorrelata con
v2 , deve risultare a3,2 = −ρζ3 ,v2 = −(ρ3,2 + a2,1 · ρ3,1 ). In generale, affinché vi+1 risulti incorrelata con vi , deve risultare
ai+1,i = −ρζi+1 ,vi .
A.1.4. VARIABILI ALEATORIE GAUSSIANE
459
Ortogonalizzazione di Gram-Schimdt
v 1 = ζ1
;
a1,1 = 1
v2 = ζ2 + a2,1 ·v1
= ζ2 + a2,1 ·ζ1
;
a2,2 = 1
a2,1 = −ρζ3 ,v2 = −ρ2,1
v3 = ζ3 + a3,2 ·v2
= ζ3 + a3,2 ·(ζ2 + a2,1 ·ζ1 )
= ζ3 + a3,2 ·ζ2 + a3,1 ·ζ1
;
a3,3 = 1
a3,2 = −ρζ3 ,v2 = − (ρ3,2 + a2,1 ·ρ3,1 )
a3,1 = a3,2 · a2,1
v4 = ζ4 + a4,3 ·v3
= ζ4 + a4,3 ·(ζ3 + a3,2 ·ζ2 + a3,1 ·ζ1 )
= ζ4 + a4,3 ·ζ3 + a4,2 ·ζ2 + a4,1 ·ζ1
;
a4,4 = 1
(A.1.21)
a4,3 = −ρζ4 ,v3 = − (ρ4,3 + a3,2 ·ρ4,2 + +a3,1 ·ρ4,1 )
a4,2 = a4,3 · a3,2
a4,1 = a4,3 · a3,1
···
vi+1 = ζi+1 + ai+1,i ·vi
= ζi+1 + ai+1,i · xi +
i−1
···
···
ai,k ·ζk
k=1
= ζi+1 +
i
ai+1,k ·ζk
;
ai+1,i+1 = 1
k=1
ai+1,i = −ρζi+1 ,vi = − ρi+1,i +
i−1
ai,k ·ρi+1,k
k=1
ai+1,k = ai+1,i · ai,k per k = 1, · · ·, i − 1
···
···
···
Osservazione
Le tecniche di colorazione e sbiancamento mediante trasformazione lineare si applicano per qualsiasi distribuzione di probabilità.
Solo, però, nel caso gaussiano si controlla la distribuzione di probabilità, che in questo caso rimane invariata sotto una trasformazione lineare. Ad esempio, per variabili aleatorie vi statisticamente indipendenti ma non-gaussiane, nel caso della colorazione
)N
i=1 ak,i ·vi risulta
riusciamo a ottenere la matrice di covarianza desiderata, ma la distribuzione di probabilità della singola xk =
essere la convoluzione delle densità di probabilità delle singole variabili aleatorie ak,i ·vi.
460
APPENDICE A.1. ELEMENTI DI TEORIA DELLA PROBABILITÀ
A.1.5
Tabelle
A.1.5.1
Integrale di Gauss
L’integrale di Gauss è usualmente definito come funzione d’errore:
A
def 2
exp(−ξ 2) dξ
erf(A) = √
π 0
e anche come funzione d’errore complementata:
2
erfc(A) = 1 − erf(A) = √
π
def
+∞
exp(−ξ 2 ) dξ
A
La Tab.A.1.1 riporta i valori numerici più significativi delle funzioni d’errore.
Valgono le seguenti espressioni asintotiche, spesso utili per semplificare i calcoli:
1
erfc (A) √
exp −A2
πA
2
*
p
p
2 1
· exp −
erfc √
π p
2
2
In luogo della erfc(·), si incontra spesso anche la funzione Q(·), definita come
p
def 1
Q(p) = erfc √
2
2
Per comodità, si riportano due probabilità per la variabile aleatoria gaussiana x; tali probabilità sono spesso incontrate nei calcoli
riguardanti prestazioni di collegamenti di telecomunicazione.
p
P {|x − ηx | ≥ p · σx } = erfc √ = 2Q(p)
2
p
P {|x − ηx | < p · σx } = erf √ = 1 − 2Q(p)
2
Equivalentemente, posto ε = p · σx , abbiamo
ε
σx
σx 2
ε
ε
√
= 1 − 2Q
P {|x − ηx | < ε} = erf
σx
σx 2
P {|x − ηx | ≥ ε} = erfc
ε
√
= 2Q
Approssimazione Polinomiale
Poiché risulta erf(x) = − erf(−x), è sufficiente considerare valori x ≥ 0. Posto
def
t =
abbiamo
1
1 + 0.47047 · x
2
erf(x) = 1 − 0.3480242 · t − 0.0958798 · t2 + 0.7478556 · t3 · e−x
per x ≥ 0
A.1.5. TABELLE
461
A
erf(A)
erfc(A)
A
erf(A)
erfc(A)
A
erf(A)
erfc(A)
0.00
0.0000e+000
1.0000e+000
2.50
9.9959e-001
4.0695e-004
5.00
1.0000e+000
1.5375e-012
0.05
5.6372e-002
9.4363e-001
2.55
9.9969e-001
3.1066e-004
5.05
1.0000e+000
9.2131e-013
0.10
1.1246e-001
8.8754e-001
2.60
9.9976e-001
2.3603e-004
5.10
1.0000e+000
5.4938e-013
0.15
1.6800e-001
8.3200e-001
2.65
9.9982e-001
1.7849e-004
5.15
1.0000e+000
3.2599e-013
0.20
2.2270e-001
7.7730e-001
2.70
9.9987e-001
1.3433e-004
5.20
1.0000e+000
1.9249e-013
0.25
2.7633e-001
7.2367e-001
2.75
9.9990e-001
1.0062e-004
5.25
1.0000e+000
1.1310e-013
0.30
3.2863e-001
6.7137e-001
2.80
9.9992e-001
7.5013e-005
5.30
1.0000e+000
6.6131e-014
0.35
3.7938e-001
6.2062e-001
2.85
9.9994e-001
5.5656e-005
5.35
1.0000e+000
3.8477e-014
0.40
4.2839e-001
5.7161e-001
2.90
9.9996e-001
4.1098e-005
5.40
1.0000e+000
2.2277e-014
0.45
4.7548e-001
5.2452e-001
2.95
9.9997e-001
3.0203e-005
5.45
1.0000e+000
1.2834e-014
0.50
5.2050e-001
4.7950e-001
3.00
9.9998e-001
2.2090e-005
5.50
1.0000e+000
7.3578e-015
0.55
5.6332e-001
4.3668e-001
3.05
9.9998e-001
1.6080e-005
5.55
1.0000e+000
4.1975e-015
0.60
6.0386e-001
3.9614e-001
3.10
9.9999e-001
1.1649e-005
5.60
1.0000e+000
2.3828e-015
0.65
6.4203e-001
3.5797e-001
3.15
9.9999e-001
8.3982e-006
5.65
1.0000e+000
1.3460e-015
0.70
6.7780e-001
3.2220e-001
3.20
9.9999e-001
6.0258e-006
5.70
1.0000e+000
7.5662e-016
0.75
7.1116e-001
2.8884e-001
3.25
1.0000e+000
4.3028e-006
5.75
1.0000e+000
4.2321e-016
0.80
7.4210e-001
2.5790e-001
3.30
1.0000e+000
3.0577e-006
5.80
1.0000e+000
2.3556e-016
0.85
7.7067e-001
2.2933e-001
3.35
1.0000e+000
2.1625e-006
5.85
1.0000e+000
1.3047e-016
0.90
7.9691e-001
2.0309e-001
3.40
1.0000e+000
1.5220e-006
5.90
1.0000e+000
7.1904e-017
0.95
8.2089e-001
1.7911e-001
3.45
1.0000e+000
1.0661e-006
5.95
1.0000e+000
3.9434e-017
1.00
8.4270e-001
1.5730e-001
3.50
1.0000e+000
7.4310e-007
6.00
1.0000e+000
2.1520e-017
1.05
8.6244e-001
1.3756e-001
3.55
1.0000e+000
5.1548e-007
6.05
1.0000e+000
1.1686e-017
1.10
8.8021e-001
1.1979e-001
3.60
1.0000e+000
3.5586e-007
6.10
1.0000e+000
6.3146e-018
1.15
8.9612e-001
1.0388e-001
3.65
1.0000e+000
2.4448e-007
6.15
1.0000e+000
3.3953e-018
1.20
9.1031e-001
8.9686e-002
3.70
1.0000e+000
1.6715e-007
6.20
1.0000e+000
1.8167e-018
1.25
9.2290e-001
7.7100e-002
3.75
1.0000e+000
1.1373e-007
6.25
1.0000e+000
9.6722e-019
1.30
9.3401e-001
6.5992e-002
3.80
1.0000e+000
7.7004e-008
6.30
1.0000e+000
5.1242e-019
1.35
9.4376e-001
5.6238e-002
3.85
1.0000e+000
5.1886e-008
6.35
1.0000e+000
2.7014e-019
1.40
9.5229e-001
4.7715e-002
3.90
1.0000e+000
3.4792e-008
6.40
1.0000e+000
1.4171e-019
1.45
9.5970e-001
4.0305e-002
3.95
1.0000e+000
2.3217e-008
6.45
1.0000e+000
7.3970e-020
1.50
9.6611e-001
3.3895e-002
4.00
1.0000e+000
1.5417e-008
6.50
1.0000e+000
3.8421e-020
1.55
9.7162e-001
2.8377e-002
4.05
1.0000e+000
1.0188e-008
6.55
1.0000e+000
1.9858e-020
1.60
9.7635e-001
2.3652e-002
4.10
1.0000e+000
6.7000e-009
6.60
1.0000e+000
1.0213e-020
1.65
9.8038e-001
1.9624e-002
4.15
1.0000e+000
4.3847e-009
6.65
1.0000e+000
5.2268e-021
1.70
9.8379e-001
1.6210e-002
4.20
1.0000e+000
2.8555e-009
6.70
1.0000e+000
2.6617e-021
1.75
9.8667e-001
1.3328e-002
4.25
1.0000e+000
1.8506e-009
6.75
1.0000e+000
1.3488e-021
1.80
9.8909e-001
1.0909e-002
4.30
1.0000e+000
1.1935e-009
6.80
1.0000e+000
6.8009e-022
1.85
9.9111e-001
8.8890e-003
4.35
1.0000e+000
7.6594e-010
6.85
1.0000e+000
3.4123e-022
1.90
9.9279e-001
7.2096e-003
4.40
1.0000e+000
4.8917e-010
6.90
1.0000e+000
1.7036e-022
1.95
9.9418e-001
5.8207e-003
4.45
1.0000e+000
3.1089e-010
6.95
1.0000e+000
8.4634e-023
2.00
9.9532e-001
4.6777e-003
4.50
1.0000e+000
1.9662e-010
7.00
1.0000e+000
4.1838e-023
2.05
9.9626e-001
3.7419e-003
4.55
1.0000e+000
1.2374e-010
7.05
1.0000e+000
2.0580e-023
2.10
9.9702e-001
2.9795e-003
4.60
1.0000e+000
7.7496e-011
7.10
1.0000e+000
1.0073e-023
2.15
9.9764e-001
2.3614e-003
4.65
1.0000e+000
4.8297e-011
7.15
1.0000e+000
4.9063e-024
2.20
9.9814e-001
1.8628e-003
4.70
1.0000e+000
2.9953e-011
7.20
1.0000e+000
2.3778e-024
2.25
9.9854e-001
1.4627e-003
4.75
1.0000e+000
1.8485e-011
7.25
1.0000e+000
1.1467e-024
2.30
9.9886e-001
1.1432e-003
4.80
1.0000e+000
1.1352e-011
7.30
1.0000e+000
5.5026e-025
2.35
9.9911e-001
8.8927e-004
4.85
1.0000e+000
6.9375e-012
7.35
1.0000e+000
2.6274e-025
2.40
9.9931e-001
6.8851e-004
4.90
1.0000e+000
4.2189e-012
7.40
1.0000e+000
1.2484e-025
2.45
9.9947e-001
5.3058e-004
4.95
1.0000e+000
2.5531e-012
7.45
1.0000e+000
5.9022e-026
2.50
9.9959e-001
4.0695e-004
5.00
1.0000e+000
1.5375e-012
7.50
1.0000e+000
2.7766e-026
Tabella A.1.1: Tavola dei valori di erf(·) e erfc(·).