aleatorio

annuncio pubblicitario
CENNI SULLE VARIABILI ALEATORIE ............................................................................................................................. 2
1 INTRODUZIONE ALLA TEORIA DELLE PROBABILITÀ ................................................................................................................... 2
2 APPROFONDIMENTO SULLA TEORIA DELLE PROBABILITÀ ......................................................................................................... 3
2.1 Teorema della probabilità dell’evento complementare ................................................................................................... 3
2.2 Teorema della probabilità totale ..................................................................................................................................... 3
2.3 Fenomeno aleatorio condizionato ................................................................................................................................... 3
2.4 Indipendenza Statistica.................................................................................................................................................... 4
2.5 Teorema di Bayes ............................................................................................................................................................ 4
3 DEFINIZIONE DI VARIABILE ALEATORIA .................................................................................................................................... 5
3.1 Funzione distribuzione..................................................................................................................................................... 5
3.2 Funzione densità di probabilità....................................................................................................................................... 6
4 APPROFONDIMENTI CON ESEMPI SULLE VARIABILI ALEATORIE ................................................................................................. 7
4.1 Variabili aleatorie discrete.............................................................................................................................................. 7
4.2 Variabili aleatorie continue.......................................................................................................................................... 10
1
Cenni sulle variabili aleatorie
1 Introduzione alla teoria delle probabilità
la teoria della probabilità si occupa dei valori medi di fenomeni di massa che avvengono simultaneamente
o successivamente nel tempo: emissioni di elettroni, chiamate telefoniche, rilevamenti radar, controllo
della qualità di un prodotto, guasti in un impianto, meccanica statistica, indici di natalità e di mortalità,
ereditarietà.
Alcuni esempi di fenomeni aleatori di interesse specifico nelle telecomunicazioni sono:
• Errori introdotti dal canale di comunicazione sul messaggio trasmesso,
• Numero e tipo di chiamate simultaneamente attive alla centrale di commutazione,
• Errori di misura negli strumenti di acquisizione.
E’ stato osservato che in questi e altri campi certi valori medi si approssimano a un valore costante,
allorché il numero delle osservazioni aumenta. Per di più, questo valore limite si mantiene invariato,
anche se le medie vengono valutate su una qualunque successione parziale, definita prima che
l’esperimento venga compiuto. Così, se ripetendo più volte il lancio di una moneta, la percentuale degli
esiti “testa” si avvicina al 50% (valore medio), questo stesso valore si otterrebbe se si considerasse, ad
esempio, un lancio ogni quattro.
Un fenomeno aleatorio può essere caratterizzato secondo gli elementi descritti in tabella
Esperimento
Prova
Determinazione
Evento
Descrizione delle modalità di attuazione di un fenomeno
aleatorio
Esecuzione di un esperimento
Valore che può essere assunto da una grandezza fisica a
seguito di una prova
L’evento si verifica se il risultato soddisfa certi requisiti.
La teoria si propone di descrivere e di predire tali valori medi e a questo proposito si associa a un certo
evento la sua probabilità.
Nell’osservazione dei fenomeni aleatori, all’aumentare del numero delle osservazioni alcune grandezze
tendono a valori costanti. Questo consente di definire la probabilità di un evento A tramite il rapporto fra
il numero nA di occorrenze dell’evento e il numero totale n degli esperimenti effettuati:
nA
n→∞ n
Pr ( A) = lim
Pr(A) è un numero reale positivo sempre compreso tra 0 e 1.
Gli eventi aleatori si definiscono in termini di insiemi e sono caratterizzati delle probabilità ad essi
associati. Ad ognuno dei risultati si associa con una corrispondenza biunivoca un punto nell’insieme
(spazio) dei risultati Ω. Dato un evento E ad esso corrisponde l’insieme E dei punti di Ω corrispondenti ai
risultati favorevoli all’evento E. All’evento certo, cui sono favorevoli tutti i risultati possibili, corrisponde
l’intero insieme Ω e quindi la probabilità 1. Agli eventi si applicano le classiche operazioni tra insiemi, di
cui alcuni esempi sono in tabella.
2
Operazione d’insieme
Complementazione
A = {ω ω ∈ Ω,ω ∉A}
Unione
A ∪ B = {ω ω ∈ Ω,
Operazione sugli eventi
Evento “non-A”, che si verifica quando
non si verifica A
Evento “A o B”, che si verifica quando si
verifica almeno uno dei due eventi A o B.
ω ∈ A "o " ω ∈ B}
Intersezione
A ∩ B = {ω ω ∈ Ω,
Evento “A e B”, che si verifica quando si
verificano ambedue gli eventi A e B.
ω ∈ A " e" ω ∈ B}
La probabilità Pr può essere definita come una funzione che fa corrispondere ad un dato insieme in Ω un
valore reale compreso tra 0 e 1:
Pr : F→ [0 , 1]
La probabilità gode delle seguenti proprietà (assiomi):
1) Pr(E) ≥ 0, ∀ E ⊂ Ω
2) Pr(∪n En) = ΣnPr(En) ∀ E1 , …, En ⊂ Ω, Ei ∩ Ej = ∅
3) Pr(Ω) = 1
2 Approfondimento sulla teoria delle probabilità
Questa sezione contiene una rassegna dei principali risultati sulla teoria della probabilità che possono
essere utili per uno studio approfondito sui fenomeni aleatori e sulle loro applicazioni nel campo delle
telecomunicazioni.
2.1 Teorema della probabilità dell’evento complementare
Dato un evento ammissibile E con Probabilità Pr(E), la probabilità dell’evento complementare Pr(non-E)
è pari a
Pr(non-E) = 1 – Pr(E)
2.2 Teorema della probabilità totale
Dati due eventi ammissibili A e B, non necessariamente mutuamente escludentisi (⇒ A∪B ≠∅), con
probabilità Pr(A), Pr(B), l’evento (A o B) è ammissibile, e la sua probabilità vale:
Pr(A ∪ B) = Pr(A)+ Pr(B) – Pr(A ∩ B)
2.3 Fenomeno aleatorio condizionato
Dato un fenomeno aleatorio descritto dallo spazio Ω ed un evento ammissibile Γ (cioè Pr(Γ)>0), si dice
fenomeno aleatorio condizionato all’evento Γ il fenomeno aleatorio ottenuto da quello di partenza
scartando i casi in cui l’evento Γ non si verifica. Rispetto al fenomeno aleatorio condizionato, il generico
evento E è rappresentato dall’insieme E ∩ Γ. Pertanto si definisce la probabilità condizionata di un evento
E rispetto a Γ il rapporto seguente:
3
Pr (E | Γ ) =
Pr (E ∩ Γ )
Pr (Γ )
2.4 Indipendenza Statistica
In generale, sapere che si è verificato l’evento Γ modifica la conoscenza circa il contemporaneo verificarsi
dell’evento E. Infatti:
Pr ( E Γ) ≠ Pr ( E )
Se la conoscenza che si sia verificato Γ non porta alcuna conoscenza riguardo ad E, i due eventi si dicono
statisticamente indipendenti. In particolare un evento E si dice statisticamente indipendente dall’evento Γ
se e solo se
Pr ( E Γ) = Pr ( E )
Se l’evento E è statisticamente indipendente dall’evento Γ risulta:
Pr ( E ∩ Γ ) = Pr (Γ ) Pr ( E )
2.5 Teorema di Bayes
Si consideri un fenomeno aleatorio complesso, cui siano associati due fenomeni aleatori semplici
interconnessi fra loro, di cui solo uno direttamente osservabile. Si consideri ad esempio un sistema di
trasmissione in cui il canale introduce un errore di trasmissione. Un primo fenomeno aleatorio è costituito
dall’emissione da parte della sorgente S di una sequenza di bit {ak = 0 o 1}. Il secondo fenomeno aleatorio
(interconnesso al primo) è costituito dalla ricezione da parte del destinatario D di una sequenza di simboli
{bk = 0 o 1} che, a causa degli errori introdotti dal canale, non coincide necessariamente con {ak}.
Le conoscenze a priori sulla sorgente si traducono sulla conoscenza delle probabilità con cui la sorgente
emette i simboli {ak}:
p0 = Pr(ak = 0)
p1 = Pr(ak = 1) = 1 - p0
Le conoscenze a priori sui meccanismi fisici di trasmissione nel canale si traducono sulla conoscenza
delle probabilità dei simboli ricevuti {bk} condizionate ai simboli emessi {ak}:
Pr(bk = 0 | ak = 0)
Pr(bk = 0 | ak = 1)
Pr(bk = 1 | ak = 0)
Pr(bk = 1 | ak = 1)
Il teorema di Bayes risponde alla domanda: se il simbolo ricevuto è bk = 1, qual è la probabilità che il
simbolo emesso sia stato ak = 1 ? ovvero, come si calcolano le seguenti probabilità a partire dalle Pr(ak) e
dalle Pr(bk | ak)
Pr(ak = 0 | bk = 0)
Pr(ak = 0 | bk = 1)
Pr(ak = 1 | bk = 0)
4
Pr(ak = 1 | bk = 1)
Enunciato del teorema di Bayes: Sia dato un processo aleatorio con spazio Ω, si consideri una partizione
completa {Γ1,...Γm} di Ω, (ovvero ∪j Γj = Ω con Γi ∩ Γj = ∅, i ≠ j), che corrisponde ad una serie completa
di eventi mutuamente escludentisi Γi ed un evento ammissibile E. Note le probabilità Pr(Γi), i = 1,…m, e
le probabilità condizionate Pr(E | Γi), i = 1,…m, la probabilità condizionata dell’evento Γh h = 1,…m
rispetto all’evento E, è data da:
Pr (Γh | E ) =
Pr (E | Γh )Pr (Γh )
∑ Pr (E | Γ )Pr (Γ )
m
j
j =1
j
3 Definizione di variabile aleatoria
Dato un esperimento aleatorio che è caratterizzato dallo spazio dei risultati Ω, abbiamo definito la
probabilità associata ad eventi e cioè sottoinsiemi di risultati che appartengono a Ω. La variabile aleatoria
mappa i singoli esiti del processo in valori reali. In particolare, vale la seguente definizione di variabile
aleatoria: dato uno spazio di probabilità caratterizzato dallo spazio dei risultati Ω e dalla probabilità P
associata ai suoi sottoinsiemi, si definisce variabile aleatoria X(ω) una qualsiasi funzione X : Ω→ R tale
che per ogni punto ξ di R l’insieme A corrispondente, A = {ω ∈ Ω, ω | − ∞ < X (ω ) ≤ ξ }, rappresenti un
evento ammissibile.
Una variabile aleatoria X(ω) si dice discreta se esiste un insieme S = {xi} finito o infinito numerabile tale
che ∑ P(ω | X (ω ) = xi ) = 1 (condizione di normalizzazione). Una variabile aleatoria si dice continua
xi ∈S
quando i valori che può assumere sono continui; in questo caso la precedente condizione di
normalizzazione vale in forma integrale.
3.1 Funzione distribuzione
La funzione distribuzione associata alla variabile aleatoria X, FX(x), è definita come la probabilità che la
variabile aleatoria X sia minore o uguale a x:
FX ( x ) =∆ Pr{X ≤ x}
Nella precedente notazione il simbolo maiuscolo (cioè X) indica la variabile aleatoria, mentre il
corrispondente simbolo minuscolo (cioè x) indica una “manifestazione” (e cioè un possibile valore) della
variabile aleatoria.
La funzione distribuzione FX(x) gode delle seguenti proprietà:
Non-negativa
Non-decrescente
FX ( x ) ≥ 0
FX ( x + ∆x ) ≥ FX ( x ), ∀ ∆x > 0
Continua da destra
5
lim FX ( x + ∆x ) = FX ( x ), ∆x > 0
∆x → 0
Tende a 0 al tendere a -∞ dell’argomento
lim FX ( x + ∆x ) = 0
∆x → −∞
Tende a 1 al tendere a +∞ dell’argomento
lim FX ( x + ∆x ) = 1
∆x → +∞
La probabilità di un evento ammissibile A, cui tramite la X corrisponde un insieme A(X) di R, può essere
calcolata tramite l’integrale:
Pr ( A) =
∫ dF (x )
A( X )
X
3.2 Funzione densità di probabilità
La funzione densità di probabilità della variabile aleatoria X, fX(x), è definita come la derivata della
funzione distribuzione rispetto a x:
f X (x ) =
dFX ( x )
dx
Due variabili aleatorie X1, X2 sono statisticamente indipendenti se e solo se è verificata la condizione
seguente per le funzioni densità:
f X 1 X 2 ( x1 , x2 ) = f X 1 ( x1 ) ⋅ f X 2 ( x2 )
o (equivalentemente) per le funzioni distribuzione:
FX 1 X 2 ( x1 , x2 ) = FX 1 ( x1 ) ⋅ FX 2 ( x2 )
Il valore medio di una variabile aleatoria X è definito dal seguente operatore:
E [x ] = ∫ xf X (x )dx
,
dove l’integrale viene fatto su tutto lo spazio di variabilità di X
X
Il valore quadratico medio è ottenuto applicando l’operatore E[.] alla variabile X2:
[ ]
E x 2 = ∫ x 2 f X ( x )dx
,
dove l’integrale viene fatto su tutto lo spazio di variabilità di X
X
La varianza della variabile aleatoria X, σ2, si ottiene come segue:
( )
σ 2 = E x 2 − [E ( x )] 2
6
4 Approfondimenti con esempi sulle variabili aleatorie
Questa sezione ha lo scopo di fornire una rassegna molto dettagliata delle caratteristiche delle variabili
aleatorie più comunemente usate nel campo delle comunicazioni.
Le variabili aleatorie possono essere di tipo continuo e discreto. La distinzione si fa in base all’insieme di
valori che la variabile può assumere. Se la variabile aleatoria può assumere solo un insieme finito di
valori si dice variabile aleatoria discreta. Pertanto mentre le variabili aleatorie sono contraddistinte dalle
relative funzioni densità (o le funzioni distribuzione di probabilità), le variabili aleatorie discrete sono
contraddistinte dai valori puntuali delle probabilità.
Di seguito sono dettagliate le caratteristiche dei tipi più comuni di variabili aleatorie. Alcune di queste
variabili possono essere particolarmente utili per caratterizzare, ad esempio, il canale di comunicazione e
le caratteristiche del traffico.
4.1 Variabili aleatorie discrete
La distribuzione binomiale
Riferendoci ad un esperimento aleatorio, si ha dato evento A che ad ogni prova dell’esperimento si
verifica con probabilità p. Supponendo che l’esito dell’esperimento sia indipendente da prova a prova,
allora la probabilità che su N prove ripetute dell’esperimento, l’evento A sia stato soddisfatto X = k volte è
data dalla formula seguente (distribuzione di probabilità binomiale):
N
N −k
P rob {X = k } =   p k (1 − p )
k
, k ∈ [0, 1, ..., N ]
N
N!
dove   =
è il coefficiente binomiale.
 k  k!(N − k )!
Il valore medio di questa distribuzione è E[X] = np; la varianza vale Var[X] = np(1 - p).
Un esempio di distribuzione di probabilità binomiale è mostrato in Fig. 1.
7
0.25
Probabilità
0.2
0.15
0.1
0.05
0
0
2
4
6
8
10
x
12
14
16
18
20
Fig. 1: Distribuzione di probabilità binomiale per N = 20 e p = 0.2.
La distribuzione geometrica
Sia dato un esperimento aleatorio, in base al quale si definisce l’evento A che ad ogni prova si verifica con
probabilità p. Supponendo che l’esito dell’esperimento sia indipendente da prova a prova, il numero di
prove che occorre eseguire per aver verificato l’evento A è X = k secondo la seguente distribuzione di
probabilità geometrica:
P rob {X = k } = p (1 − p )
k −1
, k ∈ [1, 2, ...]
Il valore medio di questa distribuzione è E[X] = 1/p; la varianza vale Var[X] = (1 - p)/p2.
Un esempio di andamento della distribuzione geometrica è indicato nella Fig. 2.
8
0.2
0.18
0.16
Probabilità
0.14
0.12
0.1
0.08
0.06
0.04
0.02
0
0
5
10
15
20
25
x
Fig. 2: Distribuzione di probabilità geometrica per p = 0.2.
La distribuzione di Poisson
Una variabile aleatoria discreta X ha distribuzione di Poisson quando la probabilità che si verifichi
l’evento X = k per k = 0, 1, 2, … soddisfa la seguente formula:
ρ k −ρ
P rob {X = k } =
e
, k ∈ [0, 1, ...]
k!
dove ρ è un parametro (adimensionale) reale positivo; la distribuzione ha andamento decrescente con k,
ma al crescere di ρ divengono maggiormente significativi i valori con k più elevato.
Il valore medio di questa distribuzione è E[X] = ρ; la varianza vale Var[X] = ρ.
Un esempio che illustra l’andamento della distribuzione di Poisson è indicato in Fig. 3.
9
0.3
0.25
Probabilità
0.2
0.15
0.1
0.05
0
0
2
4
6
8
10
12
14
16
18
20
x
Fig. 3: Distribuzione di probabilità di Poisson per ρ = 2.
4.2 Variabili aleatorie continue
Distribuzione esponenziale
Una variabile aleatoria con distribuzione di esponenziale ha la seguente funzione densità:
f X (x ) =
1 − λx
e , x ∈ [0 , + ∞ )
λ
Il valore medio di questa distribuzione è E[X] = 1/λ (λ prende il nome di tasso e ha le dimensioni del
reciproco di x); la varianza vale Var[X] = 1/λ2.
5
4.5
4
Funzione densità
3.5
3
2.5
2
1.5
1
0.5
0
0
10
20
30
40
50
60
70
80
90
100
x
Fig. 4: Funzione densità di probabilità per un tasso λ = 0.2.
10
La distribuzione gaussiana
Una variabile aleatoria con distribuzione gaussiana con valore medio µ e varianza σ2 è caratterizzata dalla
seguente funzione densità:
f X (x ) =
1
2πσ
2
e
−
( x −µ )2
2 σ2
, x ∈ (− ∞ , + ∞ )
σ è la deviazione standard.
La funzione densità di una variabile aleatoria x gaussiana con valore medio µ = 0 e varianza σ2 = 1 è
rappresentata in Fig. 1.
0.4
0.35
Funzione densità
0.3
0.25
0.2
0.15
0.1
0.05
0
-10
-8
-6
-4
-2
0
2
4
6
8
10
x
Fig. 5: Funzione densità di probabilità per una variabile aleatoria gaussiana con valore medio nullo e
varianza unitaria.
La funzione distribuzione FX(x) associata alla densità gaussiana è ovviamente data dalla seguente
formula: FX (x ) =
x
∫ f (x ) dx . Tale integrale non può essere espresso in forma chiusa. Si introduce allora la
X
−∞
+∞
y2
2
 x 
1
 x  1
 = erfc
 . Riferendoci ad una variabile aleatoria
1 − erf 
2
2π x
 2  2
 2
gaussiana con valore medio nullo e varianza unitaria, allora la sua distribuzione FX(x) può essere ottenuta
come 1 – Q(x).
funzione Q( x ) =
1
∫e
−
dy =
La distribuzione gaussiana ha un’interessante proprietà che va sotto il nome di teorema del limite
centrale: la somma di n variabili aleatorie continue identicamente distribuite e statisticamente
11
indipendenti tende ad una variabile aleatoria gaussiana se n (questo vale qualsiasi sia la funzione densità
delle variabili aleatorie che si sommano).
La distribuzione lognormale
Una variabile aleatoria X è detta avere una distribuzione lognormale con parametri µ e σ, se ln(X) ha
distribuzione normale con valore medio µ e deviazione standard σ. Equivalentemente X = exp(Y), dove Y
ha distribuzione gaussiana con valore medio µ e deviazione standard σ.
E’ possibile dimostrare che questa variabile aleatoria ha la seguente funzione densità:
f X (x ) =
1
x 2πσ 2
e
−
(ln( x ) −µ )2
2σ2
, x ∈ (0 , + ∞ )
Il valore medio di questa distribuzione è E[X] = exp(µ + σ2/2); la varianza vale Var[X] = exp(2µ + 2σ2)exp(2µ + σ2). Un esempio di distribuzione lognormale è dato in Fig. 6 per µ = 0 e σ = 0.2.
10
Funzione densità
10
10
10
10
10
10
50
0
-50
-100
-150
-200
-250
0
10
20
30
40
50
60
70
80
90
100
x
Fig. 6: Funzione densità di probabilità per una variabile aleatoria lognormale con per µ = 0 e σ = 0.2.
La distribuzione lognormale serve per modellare la statistica del prodotto di un numero elevato di
variabili indipendenti ed indipendentemente distribuite (teorema del limite centrale per il prodotto).
Distribuzione di Rayleigh
Una variabile aleatoria X con distribuzione di Rayleigh ha la seguente funzione densità:
f X (x ) =
x
1 − 2σ2
e
, x ∈ [0 , + ∞ )
2σ 2
12
Il valore medio di questa distribuzione è E[X] =
la varianza vale Var[X] = (2 – π/2)σ2.
2 σ Γ(3 / 2 ) , dove Γ(x) indica la funzione Gamma di x;
Se X e Y sono due variabili aleatorie indipendenti con distribuzione gaussiana, valore medio nullo e
varianza σ2, allora la variabile Z = X2 + Y2 è distribuita secondo Rayleigh come indicato in precedenza.
Invece Z2 ha distribuzione chi-quadro centrale con due gradi di libertà.
Distribuzione di Rice
Una variabile aleatoria X con distribuzione di Rice ha la seguente funzione densità:
x −
f X (x ) = 2 e
σ
x2 +s2
σ2
 xs 
I 0  2  , x ∈ [0 , + ∞ )
σ 
dove I0(x) rappresenta la funzione di Bessel modificata del primo tipo di ordine 0 e s è il parametro di
non-centralità.
Se X e Y sono due variabili aleatorie indipendenti con distribuzione gaussiana, valori medi µ1 e µ2
(rispettivamente) e stessa varianza σ2, allora la variabile Z = X2 + Y2 è distribuita secondo Rice come
indicato in precedenza, dove s2 = µ12 + µ22. Invece Z2 ha distribuzione chi-quadro non-centrale centrale
con parametro di non-centralità s.
13
Scarica