LATEX
by Alejo ;-)
Calcolo delle probabilità
Pr {E ∨ Γ} = Pr {E } + Pr {C} − Pr {E ∧ Γ}
Pr {¬E } = 1 − Pr {E }
Pr {E |Γ} =
Pr {E ∧ Γ}
Pr {Γ}
Pr {Γk |Eh } =
Teorema di Bayes
Pr {Eh |Γk } · Pr {Γk }
N
∑ [Pr {Eh |Γi } · Pr {Γi }]
i=1
Variabili Aleatorie
Monodimensionali
f. di distribuzione
continue:
dens. di probabilità
.
Pr {X 6 x} = DX (x) =
Zx
pX (ξ)dξ
pX (x) =
−∞
h
discrete:
.
DX (x) = ∑ Pi ; Pi = Pr {X = xi }
d
DX (x)
dx
pX (x) = ∑ Pi · u0 (x − xi )
i
i
px (x) = α · pcX (x) + (1 − α) ∑ Pi · u0 (x − xi )
miste:
i
Valore atteso o Momento non centrato di ordine n
(n)
mX = E{xn } =
::::X
xn
=
Varianza
Z+∞
−∞
dn Px (ξ) 1
n
x · pX (x)dx =
(− j2π)n dξn ξ=0
Momento centrato di ordine n
:::: X
µn = E{(x − mX )n } = (x − mx )n =
(2)
σ2 = µ2 = E{(x − mX )2 } = mX − m2X
Funzione Caratteristica
n
o
Px (ξ) = E e− j2πxξ = F [pX (x)]
n
n
∑ k (−mX )n−k mkX
k=0
Sostituzioni: y = f (x) monotona −→ x = g(y)
dg(y) pY (y) = pX [g(y)] · dy y = f (x) non monotona −→ x = ∑Ni=1 gi (y), con le gi (y) monotone
N
dgi (y) pY (y) = ∑ pX [gi (y)] · dy i=1
Bidimensionali
.
Pr {X 6 x} = DX (x1 , x2 ) =
Zx1 Zx2
pX (ξ1 , ξ2 )dξ1 dξ2
pX (x1 , x2 ) =
−∞ −∞
Saturazione rispetto ad x2
Z+∞
DX1 (x1 ) = DX (x1 , +∞)
pX1 (x1 ) =
pX (x1 , x2 )dx2
−∞
Evento condizionato:
PX1 |X2 (x1 , x2 ) =
1
pX (x1 , x2 )
pX2 (x2 )
∂2
DX (x1 , x2 )
∂x1 ∂x2
LATEX
by Alejo ;-)
Momento non centrato di ordine (h, k):
(h,k)
mX
n
o Z+∞Z+∞
h k
= E x1 · x2 =
x1h · x2k pX (x1 , x2 )dx1 dx2
−∞ −∞
(h,0)
mX
(h)
(0,k)
= mX1
(k)
= mX2
n
o
µ(h,k) = E (x1 − mX1 )h (x2 − mX2 )k
mX
Momenti centrati di ordine (h, k):
(1,1)
(1,1)
σ1,2 = µX = mX
σ1,2
ρ1,2 =
σ1 · σ2
covarianza:
Coefficiente di correlazione:
Cambiamento di variabile aleatoria
(
y1 = f1 (x1 , x2 )
y2 = f2 (x1 , x2 )
(
x1 = g1 (y1 , y2 )
x2 = g2 (y1 , y2 )
=⇒
pY (y1 , y2 ) = pX [g1 (y1 , y2 ), g2 (y1 , y2 )] ||J(y1 , y2 )||
Matrice di Covarianza:

σ1,1
σ2,1

 ..
 .
σn,1
− mX1 · mX2
J(y1 , y2 ) =
σ1,2
σ2,2
..
.
···
···
..
.
σn,2
···
σi, j = E (xi − mxi )(x j − mx j )
∂g1
∂y1
∂g1
∂y2
∂g2
∂y1
∂g2
∂y2
!

σ1,n
σ2,n 

.. 
. 
σn,m
σi, j = σ j,i
σii = σ2Xi
Indipendenza Statistica
Se E e Γ sono statisticamente indipendenti allora:


Pr {E |Γ} = Pr {E }
Pr {Γ|E } = Pr {Γ}


Pr {E ∧ Γ} = Pr {E } · Pr {Γ}
pX (x1 , x2 ) = pX1 (x1 ) · pX2 (x2 )
DX (x1 , x2 ) = DX1 (x1 ) · DX2 (x2 )
(h,k)
mX
µX
(h)
(k)
= mX1 · mX2
(h,k)
(h)
(k)
= µX1 · µX2
Combinazione lineare di n variabili aleatorie
Y = a1 · X1 + a2 · X2 + . . . + an · Xn
1
y
y
y
pY (y) =
pX
∗ pX2
∗ . . . ∗ pXn
|a1 · a2 . . . an | 1 a1
a2
an
n
n
n
n
σY2 = ∑ ∑ ai · a j · σXi X j =−−−−→ ∑ a2i · σ2Xi
i=1 j=1
stat. ind.
mY = ∑ ai · mXi
i
i
2
LATEX
by Alejo ;-)
Gaussiana
Monodimensionale
1
x − mX
DX x = 1 − erfc √
2
2σ
(x−mX )2
1
pX (x) = √
e− 2σ
2π σ
(n)
µX
(
0
=
1 · 3 · 5 · (n − 1)σnX
, n dispari
, n pari
n-dimensionale
pX (x) =
(2π)n/2
1
T −1
exp − (x − mX ) KX (x − mX )
2
det [Kx ]
1
p
F [pX (x)] = PX ( f ) = e− j2πξ
(1,1,1,1)
µX
(1,1,1)
(1,1,1,1)
mX −2πξT Kx ξ
e
= E {(x1 − mX1 )(x2 − mX2 )(x3 − mX3 )(x4 − mX4 )} = σX1 X2 · σX3 X4 + σX1 X3 · σX2 X4 + σX1 X4 σX2 X3
µX
mX
T
= E {(x1 − mX1 )(x2 − mX2 )(x3 − mX3 )} = 0
:::: X1 ,X2 ,X3 ,X4 ::::X1 ,X2 ::::X3 ,X4 ::::X1 ,X3 ::::X2 ,X4 ::::X1 ,X4 ::::X2 ,X3
= x1 x2 x3 x4
= x1 x2
· x3 x4
+ x1 x3
· x2 x4
+ x1 x4
· x2 x3
Bidimensionale
pX,Y (x, y) =
2πσX σY
1
p
1 − ρ2
exp −
(x − mX )2 2ρ(x − mX )(y − my ) (y − mY )2
1
−
+
2(1 − ρ2 )
σX σY
σY
σ2X
Variabili aleatorie condizionate
mX|Y = mX + ρ
σX
(y − my )
σY
σ2X|Y = σX (1 − ρ2 )
Distribuzione di Bernouilli
pX (x) = P0 · u0 (x) + P1 · u0 (x − 1)
B = X1 + X2 + . . . + Xn
n
n
n!
=
l
l!(n − l)!
mB = n · P1
σ2B = n · P0 · P1
n n−l l
pB (b) = ∑
P0 · P1 · u0 (b − l)
l=0 l
3