1 Torna all’indice Teoria dei Segnali Introduzione Il termine Segnale e' usato molto frequentemente non solo nel campo scientifico e tecnologico ma anche nell'uso quotidiano del linguaggio comune. Altrettanto spesso pero' ad esso viene attribuito, in modo improprio, indifferentemente il significato anche di Messaggio o di Informazione. Vale a dire non distinguiamo i concetti Segnale, Messaggio, Informazione. Normalmente ciò non comporta confusione anche perché la sua derivazione etimologica latina Signum ha un ampio spettro di significati. Nello studio dei sistemi fisici e del loro comportamento possiamo comunque intendere il termine Segnale come una variazione temporale dello stato fisico di un sistema che serve per rappresentare, registrare e trasmettere messaggi. Nell'attività dell'uomo i messaggi sono inseparabilmente connessi, il più delle volte, con l'informazione. L'intervallo di problematiche coinvolgenti i concetti di messaggio e informazione è molto ampio e non è scopo del corso approfondirli daremo tuttavia alcuni cenni in proposito, attraverso alcuni esempi, al solo fine di fornire elementi per ulteriore approfondimento. Il postino che consegna una lettera mi sembra un caso molto semplice e quindi basilare al fine della individuazione e quindi della distinzione delle tre componenti (segnale, messaggio, informazione). Il suono del campanello può essere identificato come Segnale, la lettera ( o la busta oppure il pacco) può rappresentare il Messaggio e il suo contenuto l'Informazione. Se però prendiamo un caso leggermente più complicato come quello di una particella elementare che colpisce un rivelatore provocando, tramite il processo di ionizzazione del materiale scintillante, transizioni ottiche di luminescenza delle molecole che lo costituiscono, non è più tanto semplice individuare e separare le tre componenti. Infatti se ci limitiamo a considerare l'insieme del materiale scintillante in se possiamo identificare l'arrivo della particella come segnale ( il suono del campanello), i processi di ionizzazione che determinano ( cioè che "portano" ) la luminescenza come messaggio e quest'ultima come l'informazione da elaborare per estrarre e interpretare ciò che è avvenuto e come all'interno dello scintillatore. Se estendiamo il sistema aggiungendo un convertitore opto-elettronico (fotomoltiplicatore) che converte la luce prodotta dalla luminescenza in corrente elettrica allora l'informazione viene presentata come tale. Se ad eccitare i centri di luminescenza del cristallo (rivelatore) è una lampada che emette fotoni nella banda delle transizioni di luminescenza allora il segnale è costituito da questi fotoni e, non essendoci più il processo di ionizzazione provocato dall’interazione e. m. della particella carica, ma piuttosto l’eccitazione diretta dei livelli molecolari da parte della radiazione emessa dalla lampada, il messaggio e l'informazione, che è ancora costituita dalla luminescenza, si identificano. Come si vede la separazione dei concetti non è poi sempre cosi semplice anche perché coinvolge aspetti riguardanti processi di comunicazione considerata nel senso più lato del suo significato e quindi coinvolgente il soggetto uomo come sistema complesso. Ma, non volendo entrare in ambiti al di fuori dei contenuti del corso, è bene limitare il nostro interesse alle connessioni tra i segnali e la Fisica quindi tra segnali e osservabile. In questa prima parte del corso parleremo esclusivamente di segnali, deterministici e stocastici e dei metodi per analizzarli, trattarli e trasformarli. Nella seconda parte studieremo come i sistemi fisici 2 elaborano, trasferiscono e trasformano le sollecitazioni di natura sia deterministica che stocastica, per generare una risposta interpretando la quale otterremo l'informazione relativa al processo fisico avvenuto nel sistema. Come esempio molto diffuso di sistema nel quale avvengono processi stocastici, nella terza parte prenderemo in esame i rivelatori di particelle con particolare attenzione a quelli basati su i processi di luminescenza. Per la trattazione dei segnali, in questa prima parte, e successivamente per l'analisi dei sistemi, ci avvarremo spesso di esempi che fanno riferimento al mondo delle telecomunicazioni o dell'elettronica a puro ed esclusivo scopo di semplicità intendendo che tutti i metodi sperimentali e matematici descritti e analizzati hanno carattere di totale generalità e quindi applicabili a tutti i segnali o sistemi fisici che sono e rimangono gli unici obiettivi del corso essendo, quelli appartenenti al campo dell'elettronica, dei semplici strumenti per una più immediata e realizzabile modellazione Modello matematico I segnali, in quanto variazione temporale dello stato fisico di un sistema, possono essere osservati ovvero sono suscettibili di una operazione di misura attraverso un gran numero di modi e di strumenti che possono variare enormemente a seconda della variabile fisica sorgente della variazione. Occorre però prestare molta attenzione all'approccio sperimentale in quanto può essere soggetto a forti limitazioni. Infatti il processo osservato si manifesta sempre come specifico, come evento singolo o individuale che manca del grado di generalità necessario per formarsi un'idea circa le proprietà fondamentali che lo generano. Risulta quindi necessario affrontare lo studio dei comportamenti per via teorica e definire, successivamente, un modello matematico che sia capace, ovviamente, di descrivere il reale comportamento del .processo a tutti i tempi cioè darne l'evoluzione temporale, in modo esatto se esso è di tipo deterministico o in modo probabilistico se invece è di tipo stocastico e quindi di predire i risultati sotto mutate condizioni fisiche. L'importanza della definizione di modello matematico risiede anche nel fatto che dà la possibilità allo sperimentatore di separare le proprie convinzioni dalla natura specifica del processo preso in esame. Un altro aspetto dell'utilità del metodo basato sul modello matematico consiste nel poter limitare l'analisi solo alle proprietà oggettivamente più importanti, a quelle ritenute fondamentali e tralasciare un gran numero di attributi secondari di minore importanza o comunque di minore interesse fisico. La scelta del modello è il primo importante passo verso lo studio sistematico di un fenomeno fisico che, nel nostro caso, è rappresentato da un segnale. E' anche interessante notare come uno stesso modello matematico può descrivere ugualmente bene diversi processi fisici. Si pensi al modello a strati atomico e al modello a shell nucleare o al modello dell'oscillatore armonico utilizzato nella meccanica, nell'elettromagnetismo, nella fisica nucleare e subnucleare e cosi via, al modello esponenziale che ben descrive i processi di assorbimento di radiazioni nella materia, la carica e scarica di capacità,..ecc. Possiamo in sintesi dire .che intendiamo per modello matematico, di un processo fisico in generale, di un segnale in particolare, una relazione funzionale il cui argomento è il tempo e che indicheremo pertanto con s(t), f(t), u(t),... In ultima analisi il modello ci permette di confrontare, di classificare e di stabilire le somiglianze tra segnali. La loro classificazione può essere fatta in tanti modi diversi a seconda della proprietà che si intende classificare. Quindi avremo segnali di tipo Unidimensionale o Multidimensionale (Vettori) se si vuole evidenziare la dimensionalità attraverso la quale essi si esibiscono. Saranno di tipo Deterministico oppure Stocastico se la loro modalità di evolversi nel tempo è prevedibile oppure casuale. Potranno ancora essere Analogici oppure Discreti se si presentano come Continui o Discontinui nel tempo. E' comunque possibile una combinazione qualsiasi delle suddette modalità e 3 risulta evidente la necessità di uno spazio rappresentativo per la definizione e la manipolazione dei medesimi. 4 Segnali Deterministici Un segnale è deterministico se il suo valore istantaneo può essere predetto ad ogni istante. Esso può essere specificato: 1.Attraverso una formula matematica 2.Un algoritmo computazionale Tuttavia occorre notare che segnali di tale tipo non esistono in natura! Infatti a causa dell'inevitabile interazione tra la sorgente del segnale e l'ambiente circostante oppure per le caotiche fluttuazioni, a livello macroscopico, della stessa variabile fisica sorgente del segnale ( si pensi alla temperatura, alla pressione, al campo elettrico, ecc.), o ancora ad effetti quantistici a livello microscopico, portano alla conseguenza che gli unici segnali reali sono di natura casuale o stocastica. Nelle tele o radiocomunicazioni, fluttuazioni casuali si manifestano come rumore dal quale occorre estrarre l'informazione. Questo è un problema molto serio quando si debbano ricomporre, ad esempio, immagini provenienti da satellite. Si richiede allora l'uso di tecniche molto sofisticate che impiegano algoritmi di ricostruzione dell'immagine ( come il filtro di Kalman). Non sempre però il segnale casuale e' da considerarsi rumore o indesiderato. Infatti, ad esempio, una sorgente cosmica emette delle fluttuazioni che non sono rumore ma anzi ci danno informazioni importanti circa l'evoluzione e la natura dell'oggetto cosmico e quindi va considerato come segnale significativo. Molto spesso, come si vede, è difficile distinguere tra evento significativo (segnale) e fluttuazione (rumore) comunque, come vedremo, si può assumere un modello matematico anche per segnali non deterministici o quasi stocastici. Segnali Unidimensionali Tali segnali sono descritti tramite una funzione del tempo come, ad esempio, la tensione V(t) agli estremi di un circuito elettrico, la temperatura T(t) di un sistema termodinamico, la velocità v(t) di efflusso dei gas di un razzo, ecc. Sono quelli che useremo di più in questa trattazione. Segnali Multidimensionali [ ] Insieme ordinato di segnali unidimensionali. V1 (t ), V 2 (t ), V3 (t ),... come, ad esempio, le differenze di potenziale esistenti ai terminali di un dispositivo multi porte (v. fig.). Attenzione Attenzione : [V1 (t ), V2 (t )] ≠ [V2 (t ), V1 (t )] perchè è un insieme ordinato. 5 Segnali Continui Volendo fare una classificazione utile in senso pratico possiamo distinguere i segnali in base alla loro evoluzione temporale. Essi quindi possono essere: Continui, Discreti, Digitali I segnali sono Continui o Analogici quando il loro valore può essere misurato in ogni istante. L'aggettivo 'analogico' è usato in relazione al fatto che la loro forma in uscita da un sistema è analoga a quella in ingresso. Segnali Discreti I segnali sono Discreti quando il loro valore può essere misurato solo in determinati istanti di tempo. Un semplice modello matematico è quello in cui ad un set numerabile di punti {ti }, i = 1,2,3,... nel tempo è associata una ampiezza si ; quindi a particolari istanti {ti }, meglio se equidistanti, si fa corrispondere il valore del segnale. Segnali Digitali I segnali sono Digitali quando si tratta di segnali discreti la cui ampiezza è associata ad un numero che ne rappresenta il valore in quell'istante In genere per esprimere il numero viene usata, per semplicità, la base numerica binaria {0,1}, che ha solo due ampiezze possibili, a quella minore è associato uno dei due (in genere "0"), all'altra il rimanente ("1"). Molto spesso i segnali discreti sono utilizzati per campionare quelli analogici, cioè per darne una rappresentazione. I vantaggi sono: 1) Non è necessario trasmettere il segnale 'continuamente', ma solo in quegli istanti di campionamento. 2) E' possibile utilizzare lo "stesso" sistema di comunicazione per trasmettere messaggi da diverse sorgenti a diversi utilizzatori. Questo modo è noto come "Time Division Multiplexing". Gli intervalli di campionamento sono, in genere, uguali con la condizione ovvia che loro durata deve essere minore di quella del segnale analogico da campionare. Vi sono due modi di campionare: 1). Tramite impulsi con equidurata temporale, ∆t = cost. e con ampiezza A proporzionale a quella del segnale analogico nel punto di campionamento. 2). Tramite impulsi di uguale ampiezza e con durata ∆t proporzionale all'ampiezza del segnale nel punto di campionamento. Anche con segnali digitali è possibile campionare segnali analogico: il segnale continuo nel punto di campionamento è convertito in una serie di impulsi digitali, ad es. binari, codificati che equivalgono al valore dello stesso al tempo t. 6 Rappresentazione dinamica dei segnali Molto spesso è importante conoscere non solo il valore istantaneo (presente) di un segnale, ma anche il suo comportamento durante il tempo nel passato e nel futuro. Il principio della rappresentazione dinamica ci consente di rispondere a questa esigenza. Essa consiste nel descrivere un segnale reale attraverso una somma di segnali elementari contigui ovvero che si susseguono ad istanti successivi di tempo. Essi possono essere scelti in una classe di segnali arbitrari tuttavia quelli più usati per la loro semplicità e significatività sono : 1) Funzioni elementari a gradini o di Heaviside, distanziati a intervalli temporali ∆t uguali e con ampiezza uguale alla variazione del segnale in questo intervallo. 2) Impulsi rettangolari o funzione δ di Dirac, contigui in modo tale da formare una sequenza inscritta o circoscritta al segnale. Funzione di Heaviside o a Gradino o Step Function Consideriamo la funzione v(t) definita dal seguente modello matematico : Questa rappresenta la transizione 0 per t< -ξ di un sistema fisico dallo stato 1 t v(t ) = + 1 per - ξ ≤ t ≤ ξ definito "0" allo stato definito 2 ξ "1". Se facciamo tendere la 1 per t> ξ variabile ξ→0 si ottiene una transizione istantanea. Allora essa prende il nome di Switching Function o funzione di Heaviside σ(t) 0 per t < t o 0 per t < 0 σ (t ) = transizione al tempo t=0; σ (t - t 0 ) = transizione al 1 per t > 0 1 per t > t 0 tempo t=t0 Rappresentazione dinamica tramite la funzione di Heaviside Prendiamo una funzione qualsiasi del tempo s(t) tale che : s(t)=0 per t<0 e sia {∆t,2∆t,3∆t,...} la sequenza di intervalli temporali alla quale corrisponde la sequenza {s1,s2,s3,...} dei rispettivi valori della s(t). Se s0=s(0) è il valore a t=0 allora: il valore del segnale a qualsiasi t è s(t)=s0σ(t) + (s1-s0)σ(t - ∆t)+(s2-s1)σ(t-2∆t)...o, in modo compatto: ∞ s (t ) = s0σ (t ) + ∑ (sk − sk −1 )σ (t − k∆t ) k =1 Se ora facciamo tendere l’intervallo temporale a zero (∆t→ 0) allora la variabile discreta k∆t tende alla variabile continua τ ;(k∆t --> τ ). ds dτ dτ L'intervallo delle ampiezze (sk-sk-1)-->ds che possiamo scrivere come: ds = quindi : 7 ∞ ds s(t)=s0σ(t) + ∫ σ(t − τ)dτ − ∞ dτ che è la rappresentazione dinamica di un segnale continuo tramite la funzione di Heaviside. Esempio. Calcolare il valore di una funzione arbitraria s(t) per t=∆t cioè al primo gradino. Tutti i termini della somma che contengono la σ a tempi maggiori di ∆t cioè 2∆t, 3∆t,....sono nulli perché è nulla la funzione di Heaviside σ mentre tutti quelli che contengono la σ a tempi inferiori sopravvivono perché la funzione di Heaviside ha valore unitario. Allora il valore della funzione per t=∆t sarà : s(t=∆t)= s0*1+ (s1-s0)*1+(s2-s1)*0+....0 quindi: s(t=∆t)=s1 Esempio Sia s(t) un segnale arbitrario avente il seguente modello matematico s(t)= 0 per ∀ t<0 2 s(t)= A t per ∀ t>0 Trovare la sua rappresentazione dinamica in termini di funzione di Heaviside. Essendo s(t)= 0 per ∀ t< 0, allora s0 = 0 e quindi la rappresentazione dinamica del segnale risulta : ∞ s (t ) = 2 A ∫ τσ (t − τ )dτ 0 che può essere facilmente verificata sostituendo un valore qualsiasi di t. Funzione delta di Dirac Consideriamo un segnale, impulso rettangolare, definito dal modello matematico: v(t;ξ ) = 1 ξ ξ σ t + − σ t − cioè la differenza tra due ξ 2 2 funzioni di Heaviside che effettuano la transizione a tempi diversi Esso ha l'ampiezza pari a 1/ξ e durata ξ. Infatti σ(t + ξ/2) = 0 per t <−ξ/2 σ(t + ξ/2) = 1 per t >−ξ/2 σ(t - ξ/2) = 0 per t <ξ/2 σ(t - ξ/2) = 1 per t >ξ/2 Quindi la loro differenza è pari a: v(t , ξ) = 1/ξ per −ξ/2 < t < ξ/2 e la durata è uguale a ξ. Questa funzione è caratterizzata dal fatto che per ∀ scelta del parametro ξ l'area è sempre unitaria.: ∞ Av = ∫ v(t ;ξ)dt=1 −∞ Infatti basta osservare che Av = base ∗ altezza = ξ∗1/ξ = 1 . Se facciamo tendere ξ → 0 , per mantenere l'area unitaria, l'ampiezza crescerà indefinitamente. Allora definiamo: 8 lim v(t ; ξ) = δ(t) ξ →0 funzione impulsiva o Delta di Dirac Essa è nulla ovunque tranne che nel punto che annulla l'argomento, cioè in t = 0 o t = t0 e gode ∞ della proprietà : ∫ δ (t)dt = 1 −∞ Esempio fisico : L'impulso di una forza F(t) variabile nel tempo che agisce su un punto materiale di massa m t2 nell'intervallo temporale ∆t =t2 - t1 è ∆p = ∫ F(t)dt t1 Ciò che conta non è tanto la forza quanto l'impulso che viene trasferito alla massa m. La funzione δ(t), Delta di Dirac, è il modello matematico di un impulso unitario (area unitaria). Rappresentazione dinamica dei segnali con la δ(t) Ricordando l'espressione della precedente rappresentazione (di Heaviside) come somma di infiniti "gradini" elementari, possiamo esprimere il k-esimo impulso elementare, ηk(t), come : ηk(t) = sk(t)[σ(t - tk) - σ(t - (tk+∆t))] essendo sk(t) il k-esimo campione del segnale. Siamo quindi ora in grado di esprimere un segnale continuo arbitrario s(t) come somma di infiniti impulsi ηk : ∞ s (t ) = ∑ η k (t ) k = −∞ ∞ s (t ) = ∑ s k [σ (t − t k ) − σ (t − (t k + ∆t ))] k = −∞ Moltiplicando e dividendo per ∆t : s (t ) = passando al limite ∞ ∑ sk k =−∞ per 1 [σ (t − tk ) − σ (t − (tk + ∆t ))]∆t ∆t ∆t → 0 si ha che 1 [σ (t − tk ) − σ (t − (tk + ∆t ))] → δ(t-τ) per cui si può scrivere: ∑ → ∫ , ∆t ≈ τ , lim ∆t →0 ∆t ∞ s (t ) = ∫ s (τ )δ (t - τ )dτ −∞ che è la rappresentazione dinamica dei segnali tramite la Delta di Dirac. Si osservi che le dimensioni della δ sono omogenee con una "frequenza". Dalla scrittura di questa rappresentazione si deduce: moltiplicando una qualsiasi s(t) per la δ(t - t0) ed integrando, otteniamo proprio il valore della funzione al tempo t0 cioè s(t0): La δ ha la cosiddetta proprietà di filtro cioè riesce a selezionare un solo valore della funzione nel punto in cui è "concentrato" l'impulso. Applicazione interessante: Realizzando un sistema come schematizzato nella figura costituito da un semplice moltiplicatore analogico e da un integratore possiamo "estrarre" il valore del segnale s(t) Moltiplicatore δ (t - t0) Integratore s(t0) 9 fornito in ingresso, s(t) all'istante t=t0. In pratica al posto della δ(t - t0) si utilizzerà un impulso sufficientemente "stretto" per avere il valore istantaneo del segnale s(t). Teoria geometrica o vettoriale dei segnali In questo secolo la matematica ha sviluppato potenti tecniche di analisi funzionale che generalizzano la nostra idea intuitiva circa la struttura geometrica dello spazio. Come è stato dimostrato l'analisi funzionale rende possibile formulare una consistente teoria dei segnali basata sulla interpretazione del segnale come vettore in uno spazio, opportunamente costruito, a infinite dimensioni. D’altronde molti problemi in campo teorico e sperimentale nei settori più svariati portano a questioni che coinvolgono domande del tipo: 1) In che senso possiamo affermare che un segnale eccede o no un altro? 2) E' possibile valutare oggettivamente quanto due segnali si "assomigliano"? Per rispondere occorre introdurre un opportuno spazio rappresentativo ("virtuale") a infinite dimensioni in cui il segnale è trattato come un vettore. Questo spazio è una generalizzazione dell'idea intuitiva di spazio con struttura geometrica. Spazio lineare dei segnali o spazio vettoriale Sia M = {s1(t), s2(t), s3(t), ...} un insieme di segnali. tali che ciascuno abbia proprietà comuni a tutti gli elementi dell'insieme. Tali proprietà possono essere studiate se è possibile stabilire delle relazioni tra i membri individuali dell'insieme. In questo caso si dice che esso possiede una struttura definita. Le caratteristiche di questa struttura sono dettate da considerazioni di carattere fisico. I segnali, ad esempio quelli di natura elettrica, possono essere combinati e moltiplicati per un fattore di scala arbitrario. Su tale base quindi per l'insieme M possiamo usare una struttura di tipo lineare. Definiamo allora le condizioni per uno spazio lineare reale: Assiomi di uno Spazio Lineare Reale L r per∀ u ∈ L , u assume solo valori ℜper∀t r r r r r r 2 per∀u , v ∈ L , ∃ la somma : u + v = w tale che w ∈ L e r r r r u +v =v +u r r r r r r commutativa e associativa: u +(v +x ) = (u + v ) + x 1) 3) 4) 5) 6) 7) 8) r r valgono le proprietà r per ∀ u ∈ L e per ∀α ∈ ℜ ∃f=α ⋅ u ∈ L r r ∃! l' elemento 0 tale che u+0=u ; 0 è detto elemento origine r r r ∃! l' elemento -u tale che - u+u = 0 r r ∃! l' elemento 1 tale che 1 ⋅ u=u ; 1 è detto elemento unitario r r r ( a + b)u =au + bu r r r r a(u +v ) = au + av Gli assiomi appena elencati sono molto stringenti anche se non sembra. Se consideriamo, ad esempio, l'insieme M dei segnali impulsivi nell'intervallo [0,20µs] la cui ampiezza V è V < 10V , esso non costituisce uno spazio lineare in quanto non soddisfa il 2 e 3 assioma. Infatti se prendiamo due segnali, nell'intervallo richiesto, con ampiezze pari a 6 volt e 8 r r volt che singolarmente ∈ L , la loro somma (u + v ) ∉ L .Ugualmente è facile mostrare che ∃ un numero α ∈ ℜ il cui prodotto con un segnale ∈ L viola il 3° assioma. Concetto di Base 10 Come allo spazio ordinario anche a quello lineare dei segnali, L, può essere data una struttura speciale che gioca il ruolo di un sistema di coordinate. Si dice allora che un insieme di segnali r r r r (vettori) {u1 ,u2 ,u3 ,...u n }∈ L costituisce una base linearmente indipendente se l'uguaglianza r ∑α i ui = 0 è soddisfatta solo quando i coefficienti α i svaniscono tutti insieme e allo stesso tempo i r r r r 1) Dati i vettori u1 ,u2 ,u3 ,...un essi si dicono linearmente dipendenti se r r r ∃ n numeri a ℜ o C tali che a1u1 + a 2 u 2 + ... + a n u n = 0 altrimenti si dicono linearmente indipendenti. 2) Uno spazio lineare si dice n-dimensionale se ∃ almeno un insieme di n vettori linearmente indipendenti. 3) Uno spazio lineare si dice infinito dimensionale se ∃ n vettori linearmente indipendenti per ∀n intero > 0. Nella teoria dei segnali, il numero di vettori di base, come regola, è infinitamente grande di conseguenza lo spazio lineare dei segnali è ad infinite dimensioni. Un vettore in uno spazio n-dimensionale può essere rappresentato come "somma pesata" di n vettori r r r r r linearmente indipendenti. Infatti se u , u1 ,...,u n ∈ L e u1 ,...,u n sono linearmente indipendenti, allora ∃ n+1 numeri a tali che: r r r cioè u , u 1 ,..., u n r r r r a0 u+a1u1+a2u 2 ...+anu n = 0 sono linearmente dipendenti. Allora se a0≠0 si ha: a r u = − 1 a0 r a2 r a r u1 + − u 2 + ...... + − n u n a0 a0 o, espresso in forma più compatta: r r n r u = ∑ ck u k k =1 ovvero qualsiasi vettore u ∈ L può essere espresso come somma di prodotti dei coefficienti ck per i r vettori u k. Si dice allora che: r gli u k costituiscono una base r r i ck sono le componenti di u cioè le sue proiezioni su u k Concetto di Norma Per un maggiore approfondimento nella teoria geometrica dei segnali occorre introdurre un altro concetto che corrisponde, nel significato, alla lunghezza di un vettore. In questo modo potremo dare una risposta alla domanda quale dei segnali è maggiore o minore di un altro e soprattutto determinare quanto. In uno spazio lineare L si dice che è definita una norma se a ciascun vettore s(t) ∈ L è assegnato un unico numero reale || s || che soddisfa le seguenti proprietà: 1. || s || ≥ 0 con || s || = 0 ⇔ se e solo se s = 0 2. ∀ α sussiste || αs || = |α| || s || 3. || s + p || ≤ || s || + || p || Allora possiamo definire norma del vettore s(t) la seguente espressione: 1 +∞ 2 2 s = ∫ s (t)dt −∞ Questa è utile in caso di segnali reali. Qualora ci trovassimo in presenza di segnali complessi sarà opportuno definire, e utilizzare quindi, la seguente norma: 11 1 + ∞ 2 s = ∫ s(t)s*(t)dt − ∞ 12 Concetto di Metrica r r Uno spazio lineare L si dice metrico se a ciascuna coppia di elementi u , v ∈ L è assegnato un numero reale positivo ρ(u,v) detto metrica o distanza tra gli elementi. La metrica deve rispettare i seguenti assiomi: 1. ρ(u,v) =ρ(v,u) riflettività 2. ρ(u,u) = 0 ∀ u ∈ L 3. ∀ w ∈ L si ha ρ(u,v) ≤ ρ(u,w) + ρ(w,v) La metrica è anche definita come la norma della distanza tra due elementi: ρ(u,v) = | u - v |. Energia di un Segnale. Signal Energy Il quadrato della norma è l'energia " portata " dal segnale ed è detta Energia del Segnale. 2 +∞ Es = s = ∫ s 2(t)dt −∞ Notare che se il segnale è una tensione, espressa in Volt, allora la sua energia è espresso in [V2 s]. Nota. Se il segnale è rappresentato da una tensione V espressa in volt allora l'energia del segnale è espressa in volt2*s e rappresenta l'energia dissipata dal segnale su un carico resistivo pari ad 1 ohm. Infatti possiamo fare una verifica dimensionale: l'equazione dimensionale dell'energia è M 2T −3 L4 Q −2 (volt 2 * s ) E ≡ ML2T − 2 ≡ 2 −1 − 2 ML T Q (ohm) [ ] Esempio. Trovare l'energia e la norma del segnale s(t),definito dal modello matematico s(t)=V*t/τ ovvero un segnale triangolare di ampiezza V, salita lineare e durata τ. ∞ τ V 2t 2 V 2τ 2 L'energia del segnale è Es = ∫ s (t ) dt = ∫ dt = avendo tenuto conto che il segnale è 2 3 0 τ −∞ nullo per t>t e per t< 0. Mentre la norma è s (t ) = E s =V τ 3 Esempio Trovare l'energia del segnale, s(t), definito dal modello matematico: s(t)=V0cos(ω0t+φ0) nell'intervallo [0,τ]. ovvero una funzione armonica troncata al tempo τ Passando alla variabile ε=ω0t+φ0 ; dε=ω0dt l'energia del segnale risulta : V02 ε Vo2 2 Es = {sin(ε ) cos(ε ) + ε } ∫ cos (ε )dε = ω0 0 2ω 0 V02 che possiamo riscrivere come E s = {sin[2(ω 0τ + φ 0 ) + 2(ω 0τ + φ 0 )} 4ϖ 0 se il tempo t al quale viene troncata l'armonica è >> del periodo dell'armonica stessa, 1/ω0 , cioè se V02τ che risulta indipendente dalla frequenza ω0t>>1, l'energia portata dal segnale diventa E s ≈ del segnale ω0. e, ovviamente, dalla fase φ0 2 13 Prodotto Scalare- Spazio di Hilbert Definiamo il prodotto scalare nello spazio L. Il prodotto scalare (u,v) è così definito: (u,v ) = +∞ ∫ u(t)v(t)dt −∞ e quindi l'angolo tra due vettori u e v in L è: cosψ uv = (u,v ) u⋅v Le proprietà ovvie del prodotto scalare sono: 1. (u,v) ≥ 0 2. (u,v) = (v,u) 3. (λu,v) = λ(u,v) 4. (u+v,w) = (u,w) + (v,w) Lo spazio lineare contenente i prodotti scalari e soddisfacenti queste condizioni è detto spazio di Hilbert reale. I vettori dello spazio di Hilbert soddisfano la fondamentale disuguaglianza di CauchyBuniakovsky: |(u,v)| ≤ |u| ⋅ |v| Se i segnali assumono anche valori complessi allora è possibile definire uno spazio di Hilbert complesso nel quale il prodotto scalare assume la forma: (u,v ) = +∞ ∫ u(t)v (t)dt * ove la * indica il −∞ complesso coniugato. Cross Energy r r2 Dallo spazio ordinario a tre dimensioni abbiamo: A + B ( r2 r2 r r = A + B + 2 A⋅ B ) Per analogia, nello spazio L avremo: u+v 2 ∞ ∞ −∞ −∞ ∞ = E S = ∫ (u + v )2 dt = Eu + E v + 2 ⋅ ∫ uvdt Da qui si vede che le energie non sono additive. Il termine Euv = 2 ⋅ ∫ uvdt è detto termine di −∞ cross energy. Esempio. Calcolo sviluppato con MATHCAD Trovare il prodotto scalare e l'angolo di sfasamento tra due segnali definiti dal modello matematico : v1 (t ) = V1e − ktσ (t ) -6 con V1=V2=5 v; e τ=2*10 s − k (t −τ ) v 2 = V2 e σ (t − τ ) L'energia dei due segnali è identica in quanto hanno la stessa ampiezza iniziale V1=V2 e la stessa costante di tempo τ . L'unica differenza tra i due è l'istante di inizio, t=0 per v1 e t= t0 per v2. Infatti: 14 Segnali Ortogonali- Serie di Fourier Generalizzata Due segnali u, v si dicono ortogonali se (u,v) = 0 e di conseguenza anche la cross energy è nulla. Sia H lo spazio di Hilbert a energia finita. Se prendiamo i segnali definiti nell'intervallo [t1,t2], non r r necessariamente finito, possiamo definire, nello stesso intervallo un insieme di funzioni { u1 ,...,u n } mutuamente ortogonali e con norma unitaria, cioè tali che : (u i ,u j ) = 10 se i=j se i ≠ j Allora un qualsiasi segnale s(t) ∈ H si può sviluppare in serie di Fourier generalizzata, cioè: ∞ s(t) = ∑ ci u i(t) i =1 dove ci.sono dei coefficienti incogniti che rappresentano il peso della corrispondente funzione nello sviluppo. Per determinarli basta moltiplicare per uk,, generica base, il segnale s(t) ed integrare in [t1,t2]. Si ottiene: t2 ∞ t2 t1 i =1 t1 ∫ s (t )u k (t )dt = ∑ ∫ ci u i u k dt e poiché la uk è una base orto-normale si avrà: t2 ∫ s (t )u k (t )dt = ck = (s, u k ) t1 cioè il k-esimo coefficiente si ottiene dal prodotto scalare tra il segnale e la k-esima base. Esempi di Basi Ortogonali Normali Funzioni armoniche in [ 0 , T ] u 1 = 0 u 2 n u 2 n − T 1 = 2 T = 2 T sin cos 2 2 π π t n n T t T Funzioni di Walsh in [ -T/2 , T/2 ] L'espressione analitica ha una forma complicata ed assume solo valori +1 o –1 per cui diamo solo il grafico di quelle di ordine inferiore. E' da notare che la k-esima base ha k zero crossing. Ovviamente: 1 2 Wal(k,q) = ∫ + 12Wal 2(k,q)dq = 1 −2 l'ortogonalità è assicurata per costruzione geometrica: 15 ∫−12Wal(1,θ ) ⋅ Wal(2,θ )dθ = ∫−14 (− 1)(− 1)dθ + ∫−1 (− 1)(1)dθ + ∫04(1)(1)dθ + ∫12 (1)(1)dθ = 1 − 1 + 1 − 1 = 0 +1 −1 2 2 1 0 4 1 4 Un qualsiasi s(t) sviluppata in serie di Fourier in termini di Walsh Functions è: ∞ s (θ ) = ∑ c k Wal (k , θ ) con θ = t/T k =0 Esempio (da svolgere) Trovare i primi due coefficienti dell'espansione in funzioni di Walsh del segnale triangolare definito, nell'intervallo [ -T/2, T/2 ] dal modello matematico : S(t) = U ( t/T + ½) Energia di un segnale sviluppato in serie di Fourier generalizzata Sia dato un segnale s(t) definito nell'intervallo [t1,t2], esso puo essere sviluppato in serie di Fourier generalizzata: ∞ s (t ) = ∑ c k u k in [ t1,t2 ] k =1 La sua energia è: t2 t2 t2 ∞ ∞ ∞ ∞ 2 E s = ∫ s (t )dt = ∫ ∑ ∑ ci c j u i u j dt = ∑ ∑ ci c j ∫ ui u j dt i =1 j =1 t1 t1 i =1 j =1 t1 poiché le u(t) sono funzioni ortonormali cioè valgono 1 solo se i = j allora: ∞ E s = ∑ c i2 i =1 ossia "l'energia di un segnale è uguale alla somma delle energie delle singole componenti ". Questo è il teorema di Pitagora generalizzato. 16 Ricerca delle condizioni sui coefficienti Ck in uno sviluppo finito N Sia ~ s (t ) = ∑ c k u k il segnale da sviluppare in serie di Fourier generalizzata in cui i coefficienti ck k =1 siano sconosciuti. Per la ricerca imponiamo che sia minimo il modulo quadro della differenza µ tra il valore esatto del segnale, s(t), e quello calcolato tramite lo sviluppo in serie ~ s , vale a dire, l'errore, al quadrato, che si commette sostituendo lo sviluppo al segnale vero. ∂µ 2 s = minimo, quindi deve essere: Si ha perciò: µ = s − ~ = 0 con m = 1, 2 ....., N. ∂c m Otteniamo allora un sistema di equazioni lineari da risolvere. Scrivendo l'espressione di µ: t2 N N N µ = ∫ s 2 − 2s ∑ c k u k + ∑ ∑ ci c j ui u j dt per l'm-esimo coefficiente, poiché le funzioni k =1 i =1 j =1 t1 sono ortogonali, si avrà: t { } 2 2 2 µ = ∫ s 2 − 2scmu m + cm um dt t1 per cui la condizione di minimo diventa: t2 { } ∂µ 2 = ∫ − 2su m + 2cm u m dt = 0 ∂c m t 1 t2 t2 2 Esplicitando avremo: ∫ su m dt = c m ∫ u m dt Poiché abbiamo scelto una base a norma unitaria si t1 t1 t2 2 ha: ∫ u m dt = 1 t1 Si ottiene perciò per il coefficiente da noi cercato: t2 ∫ s (t )u m dt = c m = ( s, u m ) t1 Quindi il coefficiente che minimizza µ altri non è che il prodotto scalare tra il segnale s(t) e la mesima base um cioè l'm-esimo coefficiente dello sviluppo in serie di Fourier generalizzato. Quindi lo sviluppo di Fourier generalizzato assicura un minimo nell'errore di approssimazione. Deve inoltre essere notato che lo spazio di Hilbert H dei segnali gode della proprietà di completezza. Ovvero se ∃ il limite della somma definito da s (t ) = lim N ∑c u i =1 N →∞ i i allora esso ∈H. 17 Rappresentazione Spettrale dei Segnali Esistono molte funzioni orto-normali che possono costituire una base ma, di particolare interesse, sono quelle armoniche. L'importanza di queste è dovuta alle seguenti particolarità: • Sono invarianti sotto trasformazioni effettuate da sistemi lineari.(cambiano solo l'ampiezza e la fase) • Quando un qualsiasi segnale s(t) è rappresentato tramite funzioni armoniche di diversa frequenza si dice che è risolto nel suo spettro. Segnali periodici e serie di Fourier Un segnale arbitrario, s(t), che si ripete ciclicamente nel tempo è un segnale periodico. Il suo modello matematico è s(t) = s(t+nT) con n = ±1, ±2, ±3..e T periodo del segnale. Definiamo nell'intervallo [-T/2, +T/2] un insieme di funzioni armoniche ortonormali: Un segnale arbitrario purché sia: • periodico di periodo T • ad un sol valore nel periodo [0, T] o [ t, t+T] • continuo o con limitati punti di discontinuità di prima specie. Può essere rappresentato con una serie di Fourier ∞ con t = [-∞,+∞] e con cm = (s,um). s (t ) = ∑ cmum (t ) m =0 Definiamo ω1 = 2π/T la pulsazione fondamentale dello spettro. E' uso corrente scrivere lo sviluppo in serie di Fourier nel modo seguente: ∞ a s (t ) = 0 + ∑ (a n cosnω 1t + bn sin nω1t ) 2 n =1 anziché con i coefficienti cm finora utilizzati senza togliere nulla alla validità e alla generalità dello sviluppo stesso. Occorre però cercare le espressioni dei nuovi coefficienti a0, an e bn: 1.[Calcolo di a0] Integriamo la s(t) nell'intervallo [-T/2, +T/2]: +T 2 +T 2 +T 2 ∞ a0 a dt + ∫ ∑ (a n cos nω1t + bn sin nω1t )dt = 0 T + 0 ∫ s(t)dt = ∫ 2 −T 2 −T 2 2 − T 2 n =1 quindi il valore medio della s(t) nel periodo T sarà: +T 2 a0 = 2 ∫ s (t )dt T −T 2 2.[Calcolo di an ]1:Integriamo la s(t) nell'intervallo [-T/2, +T/2] avendo moltiplicato per cos(nω 1t): t2 1 ∫ s (t )u k (t )dt = ck = (s, u k ) t1 18 ( +T 2 ) T +T 2 ∞ a0 + 2 2 ∫ s(t)cos nω1tdt = ∫ cos nω1tdt + ∫ ∑ an cos nω1t + bnsinnω1t cos nω1t dt = 2 −T −T −T n=1 2 2 +T 2 −T 2 2 = 0 + ∫ an cos2 nω1tdt + 0 in quanto tutti i termini con sin(nω1t) e cos(nω1t), +T 2 +T 2 T 2 nell'intervallo sono nulli quindi: ∫ s (t )cosnω1tdt = a n ∫ cos nω1tdt = a n , che ci 2 −T 2 −T 2 permette di ricavare il coefficiente an: 2+ 2 an = ∫ s (t )cosnω1tdt T −T T 2 3.[Calcolo di bn]1:Si procede analogamente avendo moltiplicato per sin(nω1t) e si ricava: 2+ 2 bn = ∫ s (t )sin nω1tdt T −T T 2 Allora un qualsiasi segnale periodico s(t) si può decomporre in: • Una componente costante, a0, ( valore medio del segnale ) • Un insieme infinito di armoniche di frequenza ωn = nω1 multiple della fondamentale,ω1, ciascuna caratterizzata da: • Un'ampiezza An = a n2 + bn2 b ϕ n = arc tan n an Se poniamo : an = Ancosϕn ; e bn = Ansinϕn , è possibile riscrivere la serie in una forma • Una fase iniziale diversa ma equivalente: ∞ a s (t ) = 0 + ∑ An cos(nω1t − ϕ n ) 2 n =1 avendo fatto uso dell'uguaglianza : cosαcosβ + sinβsinα = cos(α-β) Facciamo ora un'altra scelta per le nostre armoniche: • Un'ampiezza Bn = a n2 + bn2 a ϕ n = arc tan n bn Con questa scelta si avrà allora che:an = Bnsinϕn bn = Bncosϕn Si ottiene così, analogamente, l'espressione per la s(t): ∞ a s (t ) = 0 + ∑ Bn sin( nω 1t + ϕ n ) 2 n =1 • Una fase iniziale Annotazioni: 19 1. Se il segnale s(t) è una funzione pari [ cioè s(t) = s(-t) ], tutti i coefficienti dello sviluppo che contengono la funzione seno ( funzione dispari ) si annullano in quanto il prodotto di una funzione pari per una dispari è dispari e integrata nell'intervallo simmetrico [-T/2,T/2] è nulla. Quindi i coefficienti bn sono nulli. Quindi lo sviluppo si riduce a 2+ 2 an = ∫ s (t )cosnω1tdt T −T T ∞ a s (t ) = 0 + ∑ a n cosnω 1t 2 n =1 con i coefficienti 2 2. Analogamente se il segnale s(t) è una funzione dispari [ cioè s(t) = - s(-t) ] tutti i coefficienti che contengono la funzione coseno (funzione pari) si annulleranno cioè an = a0 = 0. Si avrà per la s(t) la seguente espressione: s (t ) = ∑ bn sin nω 1t n =1 Esempio. 2+ 2 bn = ∫ s (t )sin nω1tdt T −T T ∞ con i coefficienti 2 Onda quadra (Video-Clip) Notare l'importanza delle componenti a frequenza piu' alta per la ricostruzione del fronte dell'onda quadra. Esempio. Funzione periodica impulsiva (Calcolo) Calcoliamo lo sviluppo di Fourier per una funzione periodica di impulsi rettangolari con il seguente modello matematico: t s(t) = Aσ t + d 2 con : td :durata del segnale periodo; A ampiezza Per una funzione periodica impulsiva è uso definire una grandezza adimensionale q = td/T t − σ t − d 2 data dal rapporto tra il tempo di durata dell'impulso e il periodo della funzione. Generalmente esso viene chiamato " duty cycle " del segnale. La funzione si suppone sia pari rispetto a t = 0. Essendo pari, la funzione va sviluppata in termini di coefficienti che contengono solo coseni e il termine costante. td 2+ 2 A + t2d Quest'ultimo vale : a0 = ∫ Adt = 2 t t d = 2 Aq T − td T −2 2 Per gli altri termini si avrà: td td t +d 2+ 2 A+ 2 A 1 A 1 td td sin nω1t td2 = 2 an = ∫ s(t)cos nω1tdt = 2 ∫ cos nω1tdt = 2 sin nω1 − sin nω1(− ) −2 2 2 T −td T −td T nω1 T nω1 2 2 ossia: an = t 2A sin nω 1 d nπ 2 ∞ 2A t Il segnale sviluppato in serie di Fourier sarà perciò: s (t ) = Aq + ∑ sin nω1 d cos nω1t 2 n =1 nπ Ma ricordandoci che ω1 = 2π/T allora la s(t) assumerà la forma ∞ sin nπ q : s (t ) = Aq 1 + 2 ∑ cos nω1t n =1 nπq Forma Complessa della Serie di Fourier 20 Ricordiamo le formule di Eulero: e ix + e − ix cos x = 2 sinx = eix − e −ix 2i Se le sostituiamo nello sviluppo di Fourier della s(t) avremo: s (t ) = a0 ∞ e inω1t + e −inω1t e inω1t − e − inω1t + ∑ (a n + bn ) 2 n=1 2 2i Riscriviamo il termine dentro la sommatoria in questo modo: −inω 1t −inω1t inω1 t inω 1t ( k n = an +e 2 e + bn e −e 2i = a n − ibn ) inω1t (a n + ibn ) − inω 1t + e e 2 2 Poiché: a n − ibn 1 + 2 1+ 2 − inω1 t dt = ∫ s (t )[cos nω1t − isin nω1t ]dt = ∫ s (t )e 2 T −T T −T 2 2 T T e T T a n + ibn 1 + 2 1+ 2 inω t = ∫ s (t )[cos nω1t + isin nω1t ]dt = ∫ s (t )e 1 dt 2 T −T T −T 2 2 chiamando ora: cn = (an − ibn ) c− n = 2 (an + ibn ) = c* 2 n per cui la s(t) assume la forma: ∞ s (t ) = ∑ cneinω1t n= −∞ con T 1+ 2 − inω1 t cn = dt ∫ s (t )e T −T 2 Frequenze Negative e inω1t + e − inω1t per n = 2 1 i ω 1t e 1 nel piano complesso la grandezza rappresenta un 2 fasore di lunghezza 1/2 che ruota in senso antiorario con velocità 1 − i ω 1t e angolare ω1.Il fasore ha la stessa ampiezza del primo 2 Considerando la quantità: cos nω 1t = ma ruota in senso opposto con la stessa velocità angolare. ( Motori a induzione → campi rotanti ) Rappresentazione nel piano complesso Un segnale periodico può quindi essere rappresentato come un'infinita somma di fasori nel piano complesso. 1) Disegniamo c0, fasore reale per n = 0 2) A t = 0 avremo: c+ = c1 + c2 + c3 + ω > 0 e c- = c-1 + c-2 + c- +.. ω < 0 Per una serie di Fourier convergente ciascuna somma rappresenta un fasore di lunghezza finita. 21 Poiché c+ e c- sono complessi coniugati allora c- + c+ è sempre reale. 22 Analisi Spettrale dei Segnali non Periodici. Trasformata di Fourier Consideriamo un impulso s(t) qualsiasi di durata finita. Immaginiamo che ad esso siano associati altri impulsi identici ricorrenti con periodo T: Allora possiamo rappresentare s(t) attraverso la serie in armoniche di Fourier: ∞ inω1t s (t ) = ∑ cne n = −∞ ∞ in 2π t T Ma ω1 = 2π/T per cui: s (t ) = ∑ cne n = −∞ e cn = con T 1+ 2 − inω 1t cn = dt ∫ s (t )e T −T 2 +T 2 1 − in2π Tt dt ∫ s (t )e T −T 2 Se vogliamo " tornare " all'impulso reale dobbiamo far tendere T → ∞. Sia ωn la n-esima armonica dello spettro, allora: ωn = n 2π T ω n +1 − ω n = 2π = ∆ω T essendo ∆ω un intervallo di frequenze che tende a diminuire con l'aumentare di T, e ωn frequenza estrema. Allora il coefficiente generico cn diventa: T +T 2 1 + 2 2π 1 − iω n t − iω t cn = dt ≡ ∆ω ∫ s (t )e ∫ s (t )e n dt 2π − T T 2π − T 2 2 + 2 ∆ω − iω n t avendo posto: ϕ (ω n ) = ∫ s (t )e dt che può essere scritta come: cn = ϕ (ω n ) 2π −T T 2 Con il che il segnale s(t) diventa: s(t ) = ∞ ∑ ϕ (ω n= −∞ n )eiωnt ⋅ che per T → ∞ : [ ∆ω → dω ; ϕ(ωn) = ϕ(ω) ] diventa 1 +∞ iωt s (t ) = ∫ ϕ (ω )e 2π − ∞ ∆ω 2π dω e la densità spettrale o spettro delle ampiezze sarà: +∞ ϕ (ω ) = ∫ s (t )e −iωt dt −∞ Rimangono così definite: • la Trasformata di Fourier +∞ ~ f (ω ) = ∫ f (t )e −iωt dt −∞ • l'Antitrasformata f (t ) = 1 +∞ ~ iωt ∫ f (ω )e dω 2π −∞ la 23 +∞ Queste espressioni hanno senso preciso solo se: ∫ f (t ) dt esiste ed è finito. −∞ In questo caso la trasformata è: 1) Continua +∞ ~ 2) Limitata f (ω ) ≤ ∫ f (t )dt −∞ 3) Nulla all'infinito per ω → ±∞ +∞ +∞ ~ 2 2 e vale l'identità di Parseval: ∫ f (t ) dt = ∫ f (ω ) dω −∞ −∞ La trasformata e l'antitrasformata ci permettono di trasformare delle funzioni dal dominio delle frequenze ω a quello del tempo t e viceversa. Quindi, quando è necessario, per esempio se un modello è difficile da trattare in un dominio, tramite la trasformata di Fourier si può cambiare dominio. Inoltre la rappresentazione nel dominio di ω, cioè la rappresentazione spettrale del segnale, offre un approccio molto significativo nell'analisi della risposta in una larga fascia di sistemi usati, in generale nell'elettronica, in particolare nelle telecomunicazioni. Esempio. Spettro di un impulso rettangolare (Video-Clip) Notare come al diminuire della larghezza temporale dell'impulso aumenta la banda delle frequenze componenti. Sia s(t), un segnale con ampiezza A e durata τ in [-τ/2,τ/2] il cui modello matematico è : s(t)= A[σ(t-τ/2) - σ(t+τ/2)] . Il suo spettro , ovvero la sua trasformata sarà: τ τ +τ +τ 2 1 − iωt 2 τ 1 − iω 2 1 iω 2 2 A − iωt = A − e + sin ω s (ω ) = A ∫ e dt = A e e = iω −τ 2 iω −τ 2 Ponendo ξ = ωτ/2 si ha: iω ω 2 sin ξ ξ Notare che per ω = 0 l'ampiezza dello spettro s(0) = Aτ e’ uguale all'area dell'impulso. s (ω ) = Aτ Esempio. Spettro di un segnale esponenziale (Calcolo) s(t ) = Ae −αt σ (t ) il modello matematico nel dominio del tempo del segnale per α>0 Il suo spettro, S(ω), ovvero la sua trasformata, sarà: Sia : ∞ S(ω) = A∫ e e 0 −αt −iωt ∞ dt = A∫ e −(α +iω )t 0 A −(α +iω )t dt = − e α + iω C'è da notare che: 1. Lo spettro va a zero solo per ω → ∞ 2. Lo spettro è una funzione complessa: S (ω ) = S (ω ) e iψ (ω ) in cui: S (ω ) = A α +ω 2 2 e ω ψ = arc tan − α ∞ = 0 A α + iω 24 Esempio. Spettro della δ(t) Sia s(t) = A δ(t) il modello matematico nel dominio del tempo. Il suo spettro S(ω), ovvero la sua trasformata, sarà: +∞ S (ω ) = A ∫ e −iωtδ (t )dt −∞ Abbiamo già visto le proprietà di " filtro " della δ(t). L'integrale è uguale al valore della funzione nel punto in cui la δ(t) è " concentrata ". In questo caso a t = 0. Quindi S(ω) = A Allora la trasformata di Fourier di una δ-function è una funzione indipendente da ω e quindi il suo spettro ha una larghezza infinita [ −∞, ∞ ] con tutte le frequenze con la stessa ampiezza A Relazione tra banda e durata Definiamo " banda " dello spettro quell'intervallo di frequenze entro il quale il modulo dello spettro è non minore di un certo valore specificato. Per esempio, se |S(ω)|M è il modulo del valore massimo, allora potremo scegliere l'intervallo: |S(ω)|M ÷ 0.1 |S(ω)|M • Consideriamo un impulso rettangolare e assumiamo che la frequenza massima limite è quella per cui si ha il " primo " zero nella |S(ω)|M / |S(0)|. Allora avremo: ωτ sin S (ω ) 2 =0 = ωτ S (0) 2 che si ha per: π = ωτ/2 ossia in termini di frequenza π = 2πfupτ/2 Allora si ha la seguente relazione di indeterminazione: fup⋅ τ = 1 Osservazione importante: Il prodotto banda * durata è una costante e dipende solo dalla forma dell'impulso. Quindi, ad esempio, la δ che ha una durata infinitesima, ha una banda infinita. 25 Proprietà basilari della trasformata Siano ∑ p i s i (t ) un insieme di segnali " pesati " con peso pi. Allora la trasformata è: i ~ f (ω ) = ∑ p i s i (ω ) i cioè sinteticamente: ∑ p i s i (t ) ⇔ ∑ p i s i (ω ) i i Proprietà della parte reale e della parte immaginaria dello spettro Vogliamo dimostrare che se la funzione s(t) ∈ ℜ allora la sua trasformata S(ω) = A(ω) - iB(ω) gode della proprietà che la sua parte Reale è una funzione pari A(ω) = A(-ω) e quella Immaginaria è una funzione dispari B(ω) = -B(-ω) Sia s(t) un segnale che prende solo valori reali. In generale il suo spettro sarà rappresentato da una funzione complessa: +∞ +∞ S (ω ) = ∫ s (t ) cos ωtdt − i ∫ s (t ) sin ωtdt −∞ −∞ o, scritta in modo più conciso: S(ω) = A(ω) - iB(ω) Facciamo ora l'antitrasformata cioè ricaviamo la s(t): 1 +∞ s (t ) = s (t ) = ∫ [A(ω ) − iB(ω )][cos ωt + i sin ωt ]dω 2π −∞ 1 +∞ ∫ [A(ω ) cos(ωt ) + B(ω )sin (ωt )] + i[ A(ω ) sin(ωt ) − B(ω ) cos(ωt )]dω 2π −∞ Ora, affinché la s(t) sia reale, come richiede l'ipotesi, dovrà verificarsi che la parte immaginaria sia nulla, ossia: +∞ +∞ ∫ A(ω ) sin ωtdω =0 −∞ ∫ B(ω ) cos ωtdω = 0 −∞ Queste condizioni sono verificate se: A(ω) è pari (infatti il seno è una funzione dispari) B(ω) è dispari (infatti il coseno è una funzione pari) Quindi si arriva alle conclusioni che: 1. La parte reale A(ω) dello spettro è una funzione pari della frequenza. A(ω) = A(-ω) 2. La parte immaginaria B(ω) è una funzione dispari della frequenza. B(ω) = -B(-ω) Dimostriamo ora che è valida anche la proposizione contraria, ovvero che se A(ω) = A(-ω) e B(ω) = -B(-ω) allora la funzione s(t) ∈ℜ . ∞ i ωt Infatti scriviamo il segnale s(t) tramite la sua trasformata : s (t ) = ∫ [ A(ω ) − iB (ω )]e dω −∞ 26 e applichiamo l'ipotesi cioè che A(ω) = A(-ω) e B(ω) = -B(-ω). Allora si ha : ∞ s (t ) = ∫ [ A(−ω ) + iB(−ω )]eiωt dω poiché è sempre possibile cambiare variabile ω → −ω −∞ otteniamo: ∞ s (t ) = ∫ [ A(ω ) + iB(ω )]e−iωt dω che è proprio s * (t ) quindi la funzione s (t ) ∈ ℜ . −∞ Spettro di un segnale traslato Supponiamo che esista, del segnale s(t), la sua trasformata, cioè S(ω). Prendiamo un segnale traslato nel tempo della quantità t0 ~ s = s (t − t 0 ) La sua trasformata sarà: ≈ +∞ S (ω ) = ∫ s (t − t0 )e−iωt dt −∞ Ponendo: x = t - t0 ; allora dt = dx si avrà: ≈ +∞ +∞ +∞ S (ω ) = ∫ s ( x)e −iω ( x +t0 ) dx = ∫ s ( x)e −iωx e −iωt0 dx = e −iωt0 ∫ s ( x)e −iωx dx = S (ω )e −iωt0 −∞ −∞ −∞ Poiché il modulo di e −iωt0 è uguale ad uno, allora le ampiezze delle armoniche sono indipendenti −iωt0 dalla posizione nel tempo del segnale. Questa informazione è contenuta nel fattore di fase e . Dipendenza dello spettro da un fattore di scala temporale Supponiamo che il segnale s(t) sia soggetto ad una trasformazione della scala dei tempi (compressione o espansione) ossia t → kt con k ∈ ℜ Se k > 1 si ha compressione e se 0 < k < 1 si ha dilatazione Allora se t → kt segue che s(t) → s(kt) e il suo spettro ≈ +∞ −iωt S (ω ) = ∫ s (kt )e dt −∞ Ponendo: x = kt ; dx = k dt, si ha: x ≈ −iω 1 +∞ 1 ω S (ω ) = ∫ s ( x )e k dx = S k −∞ k k cioè lo spettro di un segnale, ad esempio, compresso (k > 1) che mantiene la stessa forma, distribuisce le stesse componenti spettrali su un intervallo più esteso di frequenze con una ampiezza minore ( S/k). Compressione k > 1 spettro allargato ω k ampiezze minori S k Dilatazione k < 1 spettro ristretto ω k ampiezze maggiori S k Nel caso particolare di k = -1 , ossia nel caso in cui il tempo scorre in senso inverso ( time reversal ) troviamo: s(tinv) ↔ - S(-ω) 27 Il modulo dello spettro rimane invariato ma le regioni di frequenze negative si scambiano con quelle positive e le fasi iniziali traslano di 180°. Ovviamente questo ha solo un senso " virtuale " ma è un utile procedimento matematico per costruire lo spettro immagine speculare di uno dato 28 Spettro della derivata e dell' integrale di un segnale Derivata Supponiamo che esista la trasformata di s(t) cioè: s(t) ↔ S(ω) allora sarà anche: d s(t ) ↔ iωS (ω ) dt Infatti: +∞ ds (t ) +∞ +∞ −iωt − i ωt + ∞ −iωt −iωt + ∞ − i ωt = − − ω = + ω e dt se s ( t ) i e dt s ( t ) e i dt ∫ ∫ ∫ s (t )e − ∞ − ∞ dt −∞ −∞ −∞ [ ] Risolto per parti, si vede che l'integrale si riduce a due termini: il primo svanisce per t → ±∞ in quanto s(t) → 0 per la condizione di integrabilità del segnale s(t). Quindi si ha: ds (t ) ↔ iωS (ω ) dt Notazione: •In seguito ad una operazione di differenziazione il segnale, nel dominio del tempo, diventa più "rapido ", come conseguenza lo spettro della derivata ha maggiori valori nella regione delle alte frequenze. •Una differenziazione nel dominio del tempo equivale ad una semplice moltiplicazione algebrica per iω nel dominio delle frequenze. Si dice allora che il numero immaginario [iω ] gioca il ruolo di un operatore di differenziazione nel dominio di ω. •Il risultato ottenuto si può generalizzare scrivendo: d ns ↔ (iω )n S (ω ) n dt Integrale Lo spettro di un segnale è correlato al suo integrale definito dalla relazione: t 1 ∫ s (ξ )dξ ↔ −∞ infatti basta osservare che: iω S (ω ) d t ∫ s (ξ )dξ = s (t ) ed applicare il metodo precedente. dt −∞ Notazione: •In seguito ad una operazione d'integrazione il segnale, nel dominio del tempo, diventa meno " rapido " (più smooth), di conseguenza il suo spettro risulta " arricchito " di frequenze basse. •Un'integrazione nel dominio del tempo equivale ad una divisione algebrica per iω nel dominio di ω. Si dice allora che il numero immaginario [1/iω ] gioca il ruolo di operatore di integrazione nel dominio di ω. 29 Spettro del prodotto di due segnali (Convoluzione Calcolo con MATHCAD) Abbiamo visto che lo spettro di due segnali sommati [ s1(t)+s2(t) ] è dato dalla combinazione dei rispettivi spettri. Diversamente lo spettro del prodotto di due segnali u(t), v(t) non è dato dal prodotto dei loro spettri. Cerchiamo quindi a cosa equivale lo spettro del prodotto. Siano u(t) ↔ U(ω) v(t) ↔ V(ω) i segnali con i rispettivi spettri e s(t) = u(t)v(t) il segnale prodotto allora lo spettro sarà: +∞ S(ω) = ∫ u(t)v(t)e −iωt dt −∞ 1 Se mettiamo al posto di v(t) la sua antitrasformata: v(t ) = 2π +∞ ∫ V (ξ )e iξt dξ −∞ otteniamo: S (ω ) = +∞ 1 +∞ iξt −iωt dt ∫ u(t) ∫ V (ξ )e dξ e 2π − ∞ -∞ Invertendo l'ordine d'integrazione otteniamo: 1 +∞ S (ω ) = + ∞ -i(ω -ξ ) t dt dξ ∫ V (ξ ) ∫ u(t)e 2π − ∞ -∞ Possiamo perciò riscrivere lo spettro nel seguente modo: 1 +∞ S (ω ) = +∞ ∫ V (ξ )U(ω - ξ )dξ 2π −∞ ∫ V(ξ)U(ω − ξ)dξ .è noto come integrale di convoluzione delle funzioni V e U e −∞ viene indicato, simbolicamente: V(ω)*U(ω) Possiamo allora concludere che lo spettro del prodotto ordinario di due segnali è uguale, a meno di un fattore 1/2π π , al prodotto di convoluzione degli spettri. L'integrale s(t) = u(t)v(t) S(ω) = V(ω)*U(ω) Ovviamente V(ω)*U(ω) = U(ω)*V(ω) Si può anche dimostrare il teorema inverso: •Se lo spettro di un segnale può essere rappresentato come prodotto ordinario di due spettri S(ω) = S1(ω) S2(ω) tali che: S1(ω) ↔s1(t) S2(ω)↔s2(t) allora il segnale s(t) ↔ S(ω) è la convoluzione di s1(t) e s2(t) nel dominio del tempo. +∞ S1 (ω )S 2 (ω ) ↔ ∫ s1 (t − ξ ) s2 (t )dξ −∞ Una interessante conseguenza di questo è il teorema della convoluzione. Esso afferma che la trasformata di Fourier del prodotto di convoluzione è equivalente al prodotto ordinario delle trasformate. Per dimostrarlo riscriviamo in modo sintetico, indicando con ℑ la trasformata di Fourier, il teorema già dimostrato: se s(t)=u(t)v(t) ℑ[ s (t )] = ℑ[u (t )v (t )] = U (ω ) *V (ω ) = S (ω ) se ora facciamo la trasformata (anti) dell'espressione precedente, otteniamo: 30 s (t ) = u (t )v(t ) = ℑ−1[U (ω ) *V (ω )] = ℑ−1[ S (ω )] se ora al posto delle due funzioni del tempo sostituiamo le loro trasformate otteniamo ℑ−1[U (ω )]ℑ−1[V (ω )] = ℑ−1[U (ω ) *V (ω )] cvd è ovviamente possibile dimostrare, ed è valido, il teorema inverso: ℑ[u (t )]ℑ[v(t )] = ℑ[u (t ) * v(t )] L'importanza di questo teorema è enorme in quanto molti processi fisici si presentano come convoluzione di altri e quindi tramite l'applicazione di questo teorema è possibile risalire ai processi primari. Questa metodo è noto come deconvoluzione (unfolding) delle componenti. Convoluzione tra due segnali esponenziali con modello matematico): s(t)=exp(-t) ; v(t)=exp(-kt) (Calcolo) (Video-Clip) u( t ) exp ( t ) k exp ( ( k. t ) ) 10 v( t ) 0 , .05 .. 5 t 0 , .05 .. 5 a 1 u( t ) 0.5 v( t ) 0 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 t t conv ( t) exp λ ) . exp ( ( ( t λ ) . k ) dλ ( exp ( conv ( t ) t) ( 0 k. t ) ) exp ( k ) 1 0.1 conv ( t ) 0.05 0 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 t ∞ ( exp ( t ) spettroconv ( ω ) (k exp ( k . t ) ) . 1) exp ( i . ω . t ) dt 0 i (ω ) spettroconv ω ). ( k (( i i .ω ) ) spettroconv 1 (ω ) 1 ∞ U( ω ) t ) . exp ( exp ( i . ω . t ) dt U( ω ) 0 ∞ exp ( ( k. t ) ) . exp ( i . ω . t ) dt V( ω ) 0 V(ω ) i ω ) ( i 1 (k i .ω ) ω 2. k 2 ω 2 1 U( ω ) ω 1 2 1 V(ω ) k 2 ω 2 1 UV ( ω ) 1 2 2 ω . k ω 2 Dividendo lo spettro del prodotto di convoluzione per lo spettro di uno dei due segnali è possibile ottenere lo spettro dell'altro segnale e quindi, antitrasformando, il segnale incognito. 31 Questo procedimento, molto importante per lo studio dei sistemi e dei segnali, è noto come deconvoluzione ( unfolding ). Spesso dal punto di vista sperimentale si procede eccitando un sistema con un segnale noto e si misura, acquisendo dati relativi alla risposta del sistema, la funzione convoluzione dell'eccitazione e dell'operatore del sistema (incognito), quindi si procede alla sua determinazione attraverso il metodo di deconvoluzione che viene eseguito numericamente per mezzo della FFT (Fast Fourier Transform). i Y( ω ) (( ω ).( k i i .ω ) ) Y( ω ) i ( 1 i .ω ) (k la cui antitrasformata è ω ) i ∞ v( t) 1 . 2. π 1 ω 0 .. 3. 101 (k i .ω ) . exp ( i . ω . t ) d ω 0 1 U( ω ) V( ω ) 0.5 UV ( ω ) 0 0 5 10 15 20 25 30 ω Spettro di segnali non integrabili Molte funzioni largamente usate nella teoria delle comunicazioni non soddisfano i requisiti di " assoluta integrabilità " richiesta dalla trasformata. Comunque possiamo ancora parlare di spettro di tali segnali se assumiamo che questi spettri possono essere descritti da funzioni generalizzate. Spettro di una costante Sia dato il segnale con il seguente modello matematico .u(t) = u0 = costante Supponiamo che questo segnale possa essere rappresentato dalla sua antitrasformata: 1 +∞ i ωt u0 = ∫ S (ω )e dω 2π − ∞ in cui S(ω) è sconosciuto. Invocando le proprietà della δ, si può vedere immediatamente che la S(ω ) deve essere: S(ω) = 2π u0δ(ω) Infatti: u0 = +∞ 1 2π ∫ u0δ (ω )eiωt dω 2π − ∞ Quindi lo " spettro " di una costante ha solo la componente a frequenza ω = 0. Spettro di un esponenziale complesso Sia s ( t ) = e iω 0 t il modello matematico del segnale con ω0 nota. Si vede chiaramente che s(t) non gode della integrabilità assoluta in quanto per t → ±∞, essa non tende a nessun limite finito. Ciononostante possiamo scrivere la sua antitrasformata: 32 1 +∞ iωt ∫ S (ω )e dω 2π −∞ L'identità è valida solo per S(ω) tale che: S(ω) =2πδ(ω-ω0) eiω 0t = +∞ 1 iω t e quindi si avrà: e 0 = 2π ∫ δ (ω − ω 0 )eiωt dω 2π − ∞ Nota: 1. Lo spettro è identicamente nullo ovunque tranne in ω = ω0 dove ha una singolarità. 2. Non è simmetrico rispetto a ω = 0 (ma giace o in ω > 0 oppure in ω < 0) Spettro di una armonica Sia s(t) = cosω0t il modello matematico del segnale che possiamo anche scrivere: s (t ) = ( eiω 0t + e −iω 0t 1 iω 0t = e + e −iω 0t 2 2 ) data la linearità della trasformata di Fourier e visto che lo spettro di un esponenziale complesso è: eiω0t ↔ 2πδ (ω − ω0 ) possiamo scrivere: 1 +∞ π ∫ δ (ω − ω 0 ) + δ (ω + ω 0 ) eiωt dω cosω 0t = 2π −∞ cioè: cosω0t ↔ π[δ(ω-ω0)+δ(ω+ω0)] [ ] analogamente per il seno avremo: sinω0t ↔ π[δ(ω-ω0)+δ(ω+ω0)] Spettro di un segnale arbitrario periodico Esso può essere rappresentato attraverso la serie di Fourier: +∞ s (t ) = ∑ cneiω1nt n = −∞ iω t con ω1 = 2π/T. Data la linearità della trasformata e ricordando che: e 0 ↔ 2πδ (ω − ω0 ) possiamo scrivere lo spettro di s(t): +∞ s (ω ) = 2π ∑ cnδ (ω − nω1) n =−∞ che abbiamo già visto. Si tratta di impulsi di tipo δ nell'intervallo ±nω1. Spettro della funzione di Heaviside σ(t) 1 0 Sia: σ (t ) = t>0 il modello matematico che possiamo anche rappresentare come un t<0 lim e −αt t>0 esponenziale del tipo : σ (t ) = α →0 0 t<0 ricordando che la trasformata di un esponenziale vale e −αt ↔ 1 che con il passaggio al limite diventa: α → 0 α + iω σ (t ) ↔ lim 1 e quindi abbiamo: α + iω 33 σ (t ) ↔ 1 iω che va bene per tutte le ω tranne che per ω = 0 dove c'è una singolarità. Trattiamo separatamente questo caso. Separiamo la parte reale da quella immaginaria. 1 iω α = − 2 2 2 α + iω α + ω α +ω 2 Ricordando che: lim α 2 α →0 α + ω 2 = πδ (ω ) visto che: +∞ +∞ α +∞ ω ω dω = ∫ d ( ) = arc tan( ) =π ∫ 2 2 2 2 α −∞ −∞ α + ω −∞ 1 + (ω α ) α 1 Allora lo spettro è " concentrato " in ω = 0. Quindi: σ (t ) ↔ 1 + πδ (ω ) iω la presenza della singolarità in zero indica la presenza di una costante del valore 1/2. Spettro di un impulso " armonico" Sia s(t) = uv cos(ω0t+ϕ0) Supponiamo di conoscere la trasformata di uv: uv↔Sv(ω) D'altronde la trasformata del cosω0t è già nota e vale : [ cos(ω 0t + ϕ 0 ) ↔ π δ (ω − ω 0 )eiϕ 0 + δ (ω + ω 0 )e−iϕ 0 ] E poiché la trasformata del prodotto di due segnali è dato dalla convoluzione dei rispettivi spettri: S (ω ) = [ ] 1 +∞ π ∫ Sv (ω − ξ ) δ (ξ − ω 0 )eiϕ 0 + δ (ξ + ω 0 )e −iϕ 0 dξ 2π − ∞ che, dalla proprietà di filtro della δ, 1 1 Sv (ω − ω 0 )eiϕ 0 + Sv (ω + ω 0 )e−iϕ 0 2 2 Quindi mentre lo spettro di uv, Sv(ω) è centrato intorno allo zero, quello di s(t) ha due centri uno in ω0 e l’altro in -ω0. S (ω ) = Vediamo ora lo spettro di un impulso rettangolare che " modula " un segnale armonico. Il modello matematico è ur (t ) = u[σ (t ) − σ (t − τ )] cos ω0t ωτ sin 2 Ricordando la trasformata di un impulso rettangolare di durata τ: S (ω ) = uτ ωτ 2 si ha: S r (ω ) = uτ 2 sin[(ω − ω 0 )τ 2] sin[(ω + ω 0 )τ 2] + (ω + ω 0 )τ 2 (ω − ω 0 )τ 2 34 35 Cenni sulla teoria dei segnali casuali Nelle telecomunicazioni i segnali si identificano molto spesso con il termine "rumore"- " noise" - " disturbo ". L'origine fisica è il moto " casuale ", " caotico " degli elettroni sia nella materia che nel vuoto. Materia Vuoto → → componenti: resistori, diodi onde elettromagnetiche Nella teoria dell'informazione si usa un modello matematico dei segnali casuali per una rappresentazione probabilistica delle relazioni esistenti nei messaggi sia in forma di testo che di immagine. Uso di algoritmi di ricostruzione come il Filtro di Kalman largamente usato sia in informatica, elettronica che in fisica sub nucleare ( ricostruzione delle tracce). Nei moderni link ottici si parla similmente di segnali casuali e di " rumore quantistico " legato alla natura probabilistica dell'emissione e dell'assorbimento. -- Accoppiamento fibraottica-fotorivelatore -- Accoppiamento guida di luce-fotocatodo Segnali casuali e loro caratteristiche Un segnale casuale, per definizione, é tale in quanto non si può predire il suo valore istantaneo in anticipo. Ciononostante alcune delle sue proprietà possono essere definite con sufficiente accuratezza in senso probabilistico. Ad esempio, la tensione ai morsetti di un resistore è la sovrapposizione di un livello medio e di rapide variazioni casuali dette "fluttuazioni". Le fluttuazioni sono tali che si osserveranno molto più frequentemente piccole variazioni rispetto al valore medio, piuttosto che grandi variazioni che avverranno raramente. Se conosciamo la probabilità delle fluttuazioni delle diverse ampiezze, possiamo sviluppare un modello matematico, abbastanza accettabile sia in senso teorico che pratico. Una legge probabilistica si manifesta, dal punto di vista fisico, ogni qualvolta un sistema fisico che genera un segnale casuale, è costituito da un gran numero di più piccoli sotto-sistemi che eseguono una operazione più o meno indipendente l'uno dagli altri. Ad esempio una corrente elettrica generata da una sorgente di f.e.m. costante deve la sua costanza all'enorme numero di elettroni (∼1016 per I∼ 1.6 mA ) che attraversano la sezione del conduttore al secondo. Le fluttuazioni nella velocità degli elettroni, tra loro, possono avere solo trascurabili effetti sul valore medio. • Probabilità : Teoria assiomatica. La base della teoria è il concetto di " popolazione di eventi casuali ". Sia: Ω = {Ai} dove Ai rappresenta l'accadere di qualche evento casuale. A ciascun evento Ai∈Ω è assegnato un numero reale P(Ai) detto probabilità2. Vediamo gli assiomi formulati da A.N. Kolmogorov nel 1930. 1. La probabilità è non negativa e non eccede l'unità 0 ≤ P(Ai) ≤ 1 L'unione di tutti gli eventi appartenenti a Ω è un evento certo. 2. ∑ P( A ) = 1 Ai ∈Ω i 3. Se A è un evento complesso, la sua probabilità è la somma di tutte le probabilità elementari. ∑ P ( Ai ) = P ( A) Ai ∈A 2 La stima della probabilità è così definita: ps ( A) = dove n : numero di casi in cui accade l' evento N : tentativi indipendenti n N 36 Funzioni di distribuzione e densità' di probabilità' Sia X una variabile casuale che può assumere tutti i valori reali x tali che -∞ ≤ x ≤ +∞. Possiamo descrivere esaustivamente le proprietà statistiche di X se conosciamo una funzione , F(x), non casuale, di variabile reale x, tale che essa sia uguale alla probabilità, p, che la variabile casuale X possa assumere qualsiasi valore x uguale o minore di un dato valore: F(x) = P(X ≤ x) F(x) è detta, allora, funzione di distribuzione di probabilità della variabile casuale X. Se X può assumere qualsiasi valore, allora F(x) è una funzione " smooth " non decrescente con valori tali che: 0 ≤ F(x) ≤ 1 con i limiti F(-∞) = 0 ; F(+∞) = 1 Si può allora definire la derivata di F(x): dF ( x ) p( x) = dx che prende il nome di densità di probabilità della variabile casuale X. Allora:p(x)dx = P(x < X ≤ x+dx ) è la probabilità che la variabile casuale X possa assumere valori compresi tra x e x+dx. Se X è una variabile casuale discreta che può assumere solo determinati valori:{x1, x2, ..., xn} con probabilità relative:{p1, p2, ...,pn}, allora: p( x) = ∑ p i δ ( x − x i ) i In ogni caso sussistono le condizioni: 1. p(x) ≥ 0 +∞ 2. +∞ dF ( x) +∞ dx = ∫ dF ( x) = F ( x ) − ∞ = 1 dx −∞ −∞ ∫ p( x)dx = ∫ −∞ ( non negatività) +∞ ( normalizzazione) Momenti di una variabile casuale Se ϕ(x) è una specificata funzione di x, allora, per definizione, il suo valore medio è dato da: +∞ ϕ ( x) = ∫ p ( x )ϕ ( x )dx −∞ In ogni teoria statistica si usano particolari valori numerici delle variabili casuali che caratterizzano la distribuzione di probabilità: i momenti della variabile casuale X. Il momento n-esimo di una variabile casuale è il valore medio dello n-esimo ordine della stessa variabile: +∞ n n x = ∫ x p ( x)dx −∞ Il primo momento sarà perciò: +∞ m1 = x = ∫ xp( x )dx −∞ Questo è anche detto valore aspettato o medio della variabile casuale X. Esso è una stima per la media ottenuta con un gran numero di tentativi. Il secondo momento è: +∞ m2 = x 2 = ∫ x 2 p ( x)dx −∞ 37 detto valore aspettato o medio dei quadrati della variabile casuale X. Altri importanti valori caratteristici sono i momenti centrali di una variabile casuale, definiti come: +∞ µ n = ( x − x )n = ∫ ( x − x )n p( x )dx −∞ Il più importante è il secondo momento centrale : +∞ µ 2 = ( x − x )2 = ∫ ( x − x )2 p ( x )dx = σ x2 −∞ detto varianza della variabile casuale che può essere espresso anche, in modo ovvio, come: +∞ +∞ σ x2 = ∫ x 2 p ( x)dx − 2 ∫ xx p( x)dx + x = x 2 − x 2 −∞ −∞ dalla quale si ricava anche la deviazione standard: σ x = σ x2 Densità di probabilità uniforme Sia X una variabile casuale definita nell'intervallo chiuso x1 ≤ x ≤ x2 tale che essa abbia un uguale probabilità di assumere valori compresi tra x e x+dx qualsiasi entro l'intervallo, allora: 0 p ( x ) = h 0 x < x1 x1 ≤ x ≤ x 2 x2 ∫ p ( x)dx = 1 poiché: x1 x2 < x 1 risulta: p( x) = x 2 − x1 Perciò abbiamo: x2 1 1 x2 x +x m1 = ∫ xp ( x )dx = ∫ xdx = = 2 1 x2 − x1 2 2 x1 x1 x2 − x1 x2 x2 x1 1 e m2 = x2 − x1 x2 1 x3 x23 − x13 x22 + x1x2 + x12 x dx = = = ∫ x2 − x1 3 3( x2 − x1 ) 3 x1 x2 2 x1 e quindi il secondo momento centrale: x2 + x x + x2 x + x (x − x )2 µ 2 = σ x2 = m2 − m12 = 2 1 2 1 − 2 1 = 2 1 3 12 2 2 da cui la deviazione standard: σ x = σ x2 = x 2 − x1 2 3 La funzione di distribuzione F(x) si ottiene attraverso un'operazione d'integrazione della corrispondente densità di probabilità p(x). • Nell'intervallo x1 ≤ x ≤ x2 si ottiene: 1 x − x1 dx = x2 − x1 x1 x2 − x1 Per x< x1 F(x) = 0 x F ( x) = ∫ • 38 • Per x > x2: x2 1 dx = 1 x1 x2 − x1 F ( x > x1) = ∫ Densità di probabilità gaussiana Sia: p( x) = 1 e σ 2π − ( x − m )2 2σ 2 Per calcolare il primo momento conviene fare una sostituzione di variabile: t= (x-m)/σ ; dt = dx/σ ; x= m+σt allora: t2 m1 = t2 t2 − 1 +∞ 1 +∞ − 2 1 +∞ − 2 2 ( m + σ t ) e dt = m e dt + ∫ ∫ ∫ σte dt 2π − ∞ 2π − ∞ 2π −∞ Poiché il secondo integrale è nullo perché è una funzione dispari e il primo, per definizione, è uguale a uno, risulta allora: m1 = x = m cioè il parametro m della densità di probabilità gaussiana è proprio il valore aspettato della variabile casuale x. La varianza o secondo momento centrale è: ( x − m )2 2 − + ∞ (x − m ) e 2σ 2 dx 1 µ 2 = ( x − m )2 = ∫ 2π −∞ σ con la sostituzione x = m+σt si ha: t2 σ 2 +∞ 2 − 2 µ2 = ∫ t e dt 2π −∞ che risolto per parti ci dà: 2 +∞ t t2 2 + ∞ − − σ µ2 = + ∫ e 2 dt − te 2 2π −∞ −∞ Il primo termine è nullo poiché è una funzione dispari. Allora si ha: 2 2 +∞ − t σ 2 µ2 = ∫ e 2 dt = σ 2π −∞ Quindi il parametro σ2 della densità di probabilità gaussiana è proprio la varianza della variabile casuale x. La funzione di distribuzione, F(x), si ottiene integrando la p(x) da -∞ a x. ( x − m )2 − x 1 2 F ( x) = ∫ e 2σ dx 2π −∞ Facendo la solita opportuna sostituzione si ha: 39 1 (x − m) σ F ( x) = 2π ∫ t2 e 2 dt − −∞ Funzione caratteristica Una media molto interessante è: +∞ Θ(v ) = eivx = ∫ eivx p ( x )dx −∞ con v ∈ ℜ . Θ(v) è la funzione caratteristica della variabile casuale x. E' da notare che, a meno di fattori costanti, Θ(v) è la trasformata di Fourier della densità di probabilità p(x). Dalla Θ(v) è possibile quindi ottenere la p(x) antitrasformando. 1 +∞ −ivx p( x) = ∫ Θ (v )e 2π −∞ dv usare la Θ(v) o la p(x) è quindi equivalente e dipende dalla comodità o convenienza matematica. Funzione caratteristica per una variabile casuale con p(x) uniforme. Sia: p( x) = x 2 Θ(v ) = ∫ eivx p( x)dx = x1 1 x 2 − x1 1 x2 ivx 1 1 ivx x2 e ∫ e dx = x1 x2 − x1 x1 x2 − x1 iv se x1 = 0 allora si avrà: Θ(v ) = Notare che Θ(v = 0) = 1 infatti: 1 (eivx2 − 1) ivx2 +∞ +∞ −∞ v =0 − ∞ Θ(v ) = e ivx = ∫ e ivx p ( x )dx = ∫ p ( x)dx = 1 •Nel caso della distribuzione uniforme: Θ(v ) = Per cui per v → 0 si ha: 1 (eivx2 − 1) ivx2 40 1 ix eivx2 (eivx2 − 1) ÷ lim 2 =1 v →0 ivx2 v →0 ix2 lim •Per una densità di probabilità gaussiana si ricava la funzione caratteristica: σ 2v2 imv 2 Θ(v ) = e •Una interessante caratteristica della Θ(v), che le dà un aspetto significativo, si ottiene determinando la derivata d'ordine n. Infatti si ha: +∞ d n Θ (v ) n n ivx i = ∫ x p ( x)e dx n dv −∞ calcolandola in ν = 0 otteniamo: d nΘ(v = 0) n + ∞ n = i ∫ x p ( x )dx = i n x n n dv −∞ quindi essa rappresenta il momento n-esimo della variabile casuale X. Si possono allora ricavare i momenti facendo la derivata di ordine n desiderato della Θ(v) calcolata per v = 0. d nΘ mn = i − n dv n v= 0 Facciamo un esempio. Esempio: Funzione caratteristica per una p(x) uniforme Per una distribuzione di probabilità uniforme nell'intervallo 0 ≤ x ≤ a cioè con p(x)= 1/a. La funzione caratteristica vale: Θ(v ) = (e iva − 1) iva e il valore medio sarà: m1 = ossia: 1 dΘ i dv v = 0 [ ] dΘ − e iva + 1 + ivae iva ia = → = 2 v → 0 dv 2 iv a da cui: m1 = come sapevamo. a 2 41 Densità di probabilità di una funzione di variabile casuale Sia y una variabile casuale correlata a x, altra variabile casuale, attraverso la funzione unica: y = f(x) La scelta di un punto casuale x nell'intervallo dx e l'occorrenza di un punto y nel corrispondente intervallo |dy| = |f(x)|dx, sono eventi equi probabili: px(x)dx = py(y) dy quindi: dg dx = p x [g ( y ) ] dy dy essendo g(y) la funzione inversa di f(x) = y. p y ( y ) = p x ( x) Esempio. Trasformazione lineare di una variabile casuale gaussiana. y = ax + b e la p(x) è: 1 e σ 2π Vogliamo ricavare la densità trasformata py(y).Poiché: p x ( x) = − ( x − m )2 2σ 2 dx d y − b 1 = = dy dy a a e ricordando che: p y ( y ) = p x ( x) dx dy si ha: p y ( y) = 1 y −b − −m a e 2 2σ 2 = 1 − [ y − (b + ma )]2 e 2a 2σ 2 aσ 2π aσ 2π Quindi la variabile casuale y mantiene il comportamento gaussiano con il nuovo valore medio: y = b + ma e la nuova varianza: σ 2y = a 2σ x2 Caratteristiche statistiche di due o più variabili casuali Siano { X1, X2,...,Xn} n variabili casuali che formano un vettore o un insieme a n dimensioni ~ variabile casuale X . Come nel caso ad una dimensione è possibile definire una funzione di distribuzione F: F( x1, x2,..., xn) = P( X1≤ x1, X2≤ x2,...Xn≤xn) La corrispondente densità di probabilità p(x), soddisferà la relazione: p( x1, x2,..., xn)dx1dx2...dxn =P(x1<X1≤ x1+dx1, x2<X2≤ x2+dx2,...,xn<Xn≤xn+dxn) La F( x1, x2,..., xn) potrà essere dedotta integrando la densità di probabilità: 42 x1 x2 xn −∞ −∞ Anche in questo caso sussistono le relazioni: 1. p(ξ1, ξ2,...ξn) ≥ 0 −∞ F ( x1, x2 ,..., xn ) = ∫ ∫ ... ∫ p (ξ1, ξ 2 ,...ξ n )dξ1dξ 2...dξ n non negativa +∞ +∞ +∞ ∫ ∫ ... ∫ p(ξ1, ξ 2 ,...ξ n )dξ1dξ 2 ...dξ n = 1 −∞ −∞ −∞ E' possibile trovare la densità di probabilità m-dimensionale, conoscendo la densità di probabilità ndimensionale quando m < n, integrando sulle " coordinate ridondanti ": +∞ +∞ +∞ p(ξ1...ξ m ) = ∫ ∫ ... ∫ p (ξ1,..ξ m ,..ξ n )dξ m +1...dξ n −∞ − ∞ − ∞ • Momenti: Conoscendo la p(ξ1, ξ2,...ξn) è possibile trovare le varie medie di qualsiasi combinazione delle 2. variabili casuali coinvolte, e quindi i corrispondenti momenti. Limitandoci al caso più ricorrente, cioè quello bidimensionale, abbiamo, per analogia col caso unidimensionale: +∞ +∞ x1 = ∫ ∫ x1 p( x1, x2 )dx1dx2 = m11 − ∞ −∞ e +∞ +∞ x2 = ∫ ∫ x2 p( x1, x2 )dx1dx2 = m22 −∞ −∞ e le varianze: σ 12 = σ 22 = +∞+∞ ∫ ∫ (x 1 − x1 ) p( x1 , x 2 )dx1dx2 ∫ ∫ (x 2 − x2 ) p( x1 , x 2 )dx1 dx2 2 − ∞− ∞ +∞+∞ 2 −∞−∞ Ciò che è " nuovo " rispetto al caso unidimensionale è che ora possiamo formare anche un momento del secondo ordine " congiunto " tra le due variabili casuali x1 e x2 che viene chiamato " momento covariante " o " correlazione ". +∞ +∞ k12 = x1x2 = ∫ ∫ x1x2 p( x1, x2 )dx1dx2 − ∞ −∞ Correlazione Supponiamo di aver fatto una serie di tentativi ciascuno dei quali ha dato come risultato una variabile casuale bidimensionale {x1, x2}. Se riportiamo sul piano cartesiano i risultati di ciascun tentativo per mezzo casi: 1. I punti si significa che x1 e di un punto, possono accadere due dispongono lungo una retta; ciò x2 hanno lo stesso segno. Questo suggerisce l'esistenza di una " associazione statistica " o " correlazione " tra le due variabili x1 x2. 2. I punti si distribuiscono in modo caotico su tutto il piano; questo suggerisce una non consistente associazione statistica. Allora le due variabili si dicono " 43 scorrelate " quantitativamente; il grado di associazione può essere misurato attraverso il " momento covariante " k12 oppure, più spesso, dalla quantità: +∞ +∞ H12 = ∫ ∫ ( x1 − x1 )( x2 − x2 ) p ( x1, x2 )dx1dx2 −∞ −∞ detta " momento di correlazione ". H 12 = k12 − x1 x 2 Notare che esso rappresenta una sorta di varianza. Nel caso, infatti, che x1=x2=x si ha: H12 = x 2 − x 2 = σ 2 H 12 σ 1σ 2 Se x1 = x2 si ha: R12 = 1 .cioè abbiamo correlazione completa, come è ovvio che sia. Si può introdurre anche un coefficiente di correlazione: R12 = Nel caso che il vettore casuale abbia più di due dimensione si ha: +∞ +∞ H ij = ∫ .. ∫ ( xi − xi ) x j − x j p ( x1..xn )dx1..dxn −∞ −∞ con i, j = 1,2,..,n e i rispettivi coefficienti di correlazione: ( Rij = ) H ij σ iσ j Ovviamente {k} e {R} sono matrici del tipo: k11 . k= . kn1 . . . . k1n . . knn 1 R R = 21 . Rn1 . . . . R1n R2n . 1 con Rij ≤ 1 in generale e Rij = 1 quando xi = ± xj caso di completa correlazione. Indipendenza statistica di variabili casuali Per definizione se delle variabili casuali X1, X2,..., Xn sono statisticamente indipendenti, la densità di probabilità multi dimensionale p(x1,..,xn) può essere espressa come prodotto delle densità : p(x1,..,xn) =p(x1)p(x2)..p(xn) Le variabile casuali statisticamente indipendenti sono, a coppie, scorrelate. Infatti, per i ≠ j si ha: +∞ +∞ +∞ +∞ kij = ∫ ∫ xi x j p( xi , x j )dxi dx j = ∫ xi p ( xi )dxi ∫ x j p ( x j )dx j = xi x j −∞ −∞ −∞ −∞ Quindi: H ij = k ij − x i x j = 0 ed anche: Rij = H ij σ iσ j =0 Il contrario non è sempre vero. Se delle variabili casuali sono scorrelate automaticamente che esse sono statisticamente indipendenti non significa 44 Trasformazione funzionale di variabili casuali multidimensionali ~ ~ Siano X e Y due vettori casuali relazionati funzionalmente in questo modo: y1=f1(x1, ..,xn) yn=fn(x1,..,xn) tali per cui siano note le trasformazioni inverse: x1=g1(y1,..,yn) xn=gn(y1,..,yn) e la densità di probabilità iniziale porig.(x1,..,xn). Allora la densità di probabilità trasformata è: ptrasf.(y1,..,yn) = porig.(x1,..,xn) |D| dove |D| è lo Jacobiano della trasformazione: ∂g 1 ∂g 1 . . ∂y1 ∂y n . . D= . . ∂g n ∂g n . . ∂y1 ∂y n avendo tenuto presente quanto già ottenuto nel caso di variabile unidimensionale. Esempio. Cambio di coordinate variabili casúali Siano x1 e x2 le variabili casuali rappresentanti le coordinate dell'estremo di un vettore nel piano. Se passiamo a coordinate polari ( ρ, ϕ ) ≡ ( y1, y2) : x1 = ρ cos ϕ = g1 ( ρ , ϕ ) x 2 = ρsin ϕ = g 2 ( ρ , ϕ ) 0≤ ρ ≤∞ con 0 ≤ ϕ ≤ 2π |D| sarà allora: ∂x1 ∂ρ D = ∂x 2 ∂ρ ∂x1 cos ϕ ∂ϕ = ∂x 2 sinϕ ∂ϕ − ρsinϕ = ρ cos 2 ϕ + ρsin 2ϕ = ρ ρ cos ϕ Quindi la densità trasformata è: ptrasf.(ρ,ϕ) = ρ⋅porig.(x1,x2) Distribuzione gaussiana multidimensionale Calcolo con MATHCAD Supponiamo che per una variabile n-dimensionale casuale X = {X1, X2,..., Xn} siano note: 1. 2. m1, m2,..., mn 2 2 Le varianze σ 1 ,..., σ n La matrice R dei coefficienti di correlazione Le medie 3. In generale queste informazioni non sono sufficienti per formare la densità di probabilità p(x1,..,xn). La sola eccezione è quando X è un vettore casuale di tipo gaussiano. Allora la densità di probabilità si scrive: 45 ( 1 p( x1,.., xn ) = 1 n 1 n (x − m ) x j − m j − ∑ Dij i i 2 D i , j =1 σi σj e ) σ1...σ n (2π ) 2 D 2 in cui D è il determinante della matrice {R} e Dij è il cofattore dell'elemento Rij nella {R}. Se il vettore casuale X è formato da variabili casuali " scorrelate " tali che Rij = δij con δij delta di Kronecker, allora la matrice {R} conserva solo gli elementi della diagonale principale uguali a uno ed annulla tutti gli altri. 1 R= . . . 0 e DR= 1 . 0 1 Quindi la p(x1,..,xn) è: p( x1,.., xn ) = 1 n 2 n − 1 ∑ ( xi − mi ) 2 2 i =1 σ i e σ 1...σ n (2π ) 2 ovvero p(x1,..,xn) =p(x1)p(x2)..p(xn) in cui ciascuna densità di probabilità p(x) unidimensionale ha: 1. Un valore medio mi 2. Una varianza σ i 2 Risulta quindi che, nel caso della gaussiana, se le variabili casuali, che formano il vettore casuale, sono " scorrelate " esse sono anche " statisticamente indipendenti ". Nel caso più frequentemente usato di variabile bidimensionale, la gaussiana si scrive, nel caso più generale: R= p(x1, x2) = 1 R12 R21 1 D = 1- R12R21 (x −m )2 (x −m ) (x −m ) (x −m) (x −m ) (x −m )2 1 1 1 −R12 1 1 2 2 −R21 1 1 2 2 + 2 2 ⋅exp− σ1σ22π 1−R12R21 2(1−R12R21) σ12 σ22 σ1 σ2 σ1 σ2 1 Se ci limitiamo al caso in cui: R12 = R21 = R p( x1, x2 ) = ;m1 = m2 = 0 ; σ1 =σ2 = σ si ha ) [ ] 1 2 2 ⋅ exp − x − 2 Rx x + x 1 1 2 2 2 2 2 1 − R σ σ 2 2π 1 − R 2 1 ( Funzione caratteristica multidimensionale E' una generalizzazione di quella unidimensionale. Abbiamo quindi: +∞ +∞ Θ(v1,v2 ,...,vn ) = exp(ix1v1,...,ixnvn ) = ∫ ... ∫ ei ( x1v1...xnvn ) p( x1,...,xn )dx1...dxn −∞ − ∞ 46 Essa definisce un sistema di variabili casuali dello stesso grado di completezza della anti-trasformata di Fourier della corrispondente densità di probabilità: 1 +∞ +∞ −i(x v ...x v ) p( x1,..., xn ) = ∫ ... ∫ Θ(v1,...,vn )e 1 1 n n dv1...dvn 2π − ∞ −∞ se le variabili {X1,...,Xn} sono statisticamente indipendenti, allora, come per le densità di probabilità, le funzioni caratteristiche possono essere scritte come prodotto delle funzioni Θ(v) individuali: n Θ(v1,..,vn ) = ∏ Θi (vi ) i =1 Si può dimostrare che la Θ(ν) di una densità di probabilità gaussiana multi dimensionale è: n 1 n Θ(v1,...,vn ) = exp i ∑ mk vk − ∑ sk sl Rkl vk vl 2 k,l =1 k =1 dove mk, σk2 sono la media e la varianza del vettore variabile casuale Xk e Rkl è un elemento della matrice dei coefficienti di correlazione. Densità di probabilità della somma di variabili casuali Se nella Θ(v) multi dimensionale poniamo v1 =v2 = v essa si trasforma in una Θ(v) unidimensionale della somma x1 +x2 +..+xn: ΘΣ (v) = eiv(x1 + x2 + ...+ xn ) e facendo l'antitrasformata di Fourier otteniamo la densità di probabilità della somma. Se le{X1,...,Xn} sono gaussiane, indipendenti, ciascuna con valore medio mk e varianza σk2 allora: n n 1 ΘΣ (v) = exp iv ∑ mk − v 2 ∑ σ k2 2 k,l=1 k =1 ricordando la Θ(v) di una gaussiana unidimensionale: 1 Θuni (v) = exp ivm − v 2σ 2 2 possiamo concludere che la somma di variabili gaussiane è ancora distribuita in modo normale, cioè è ancora gaussiana ma con: n n mΣ = ∑ mk σ Σ2 = ∑ σ k2 k =1 k =1 • Nella teoria della probabilità esiste anche un più generale teorema (Lyapunov) detto del limite centrale che afferma: Sotto certe condizioni, usualmente soddisfatte dai sistemi fisici, la distribuzione della somma di N variabili casuali indipendenti, le cui varianze sono finite e con distribuzioni arbitrarie, tendono ad una distribuzione gaussiana per N → ∞. 47 Processi casuali La teoria finora sviluppata delle variabili casuali, tratta i fenomeni probabilistici in modo " statico " cioè come risultati di un determinato esperimento. Le tecniche della teoria classica della probabilità si dimostra inadeguata a rappresentare segnali che a loro volta sono una rappresentazione di fenomeni casuali variabili nel tempo. Questi sono materia per la teoria dei processi casuali. Per definizione un processo casuale X(t) è una funzione caratterizzata dal fatto che in qualsiasi istante t i valori che essa assume sono casuali. Insiemi di osservazioni I segnali deterministici, già visti, sono rappresentati tramite una relazione funzionale o una forma d'onda. Quando abbiamo a che fare con processi casuali le cose si complicano abbastanza. In un sistema fisico spesso accade che qualche sorgente di segnali è capace di produrre un set qualsiasi di funzioni del tempo. A scopo di analisi, è conveniente assegnare una legge di probabilità che descriva le occorrenze (variazioni, fluttuazioni,..) di ciascun membro del set (insieme). Il termine " set " è riferito all'insieme di segnali prodotti da una particolare sorgente. Diremo allora che tale sorgente produce un segnale X chiamato processo casuale o stocastico. La descrizione di tali processi stocastici sarà, ovviamente, molto diversa da quella già fatta per i segnali deterministici, comunque i concetti relativi allo spazio dei segnali ( distanza, norma, prodotto scalare, ortogonalità) sono un processo stocastico. In questo senso il processo casuale X(t) va visto non come uno scalare ma come un vettore nello spazio di Hilbert. Annotando i valori istantanei di un processo casuale X(t) entro un certo intervallo di tempo, otteniamo solo una singola osservazione: x t Teoricamente, un processo casuale è espresso in termini di un set di infinite osservazioni le quali formano un insieme statistico. x3 x1 x2 t t t Un esempio di tale insieme può essere rappresentato da un insieme di segnali { x1(t), x2(t),...,xn(t)} che possono essere simultaneamente osservati alle uscite di generatori di tensione di rumore assolutamente identici. In un sistema termodinamico è come se osservassimo una delle variabili di stato ( T,v,p) in punti " identici " del sistema stesso: {T1(t), T2(t),...,Tn(t)} Non sempre un processo casuale è rappresentato da una funzione complicata. Spesso abbiamo a che fare con processi casuali rappresentati da semplici armoniche del tipo uocos (ωt+ϕ) in cui una delle variabili uo, ω, ϕ sono variabili casuali. I processi casuali che sono determinati da un numero finito di variabili casuali si chiamano quasi-deterministici. 48 Densità di probabilità di un processo casuale Sia X(t) un processo casuale definito da un insieme di osservazioni e t1 un generico istante di tempo. Annotando i valori {x1(t), x2(t),...,xn(t)} assunti dal processo, in osservazioni individuali, prendiamo una sezione unidimensionale attraverso il processo stesso e costruiamo la X(t1). Otteniamo così la densità di probabilità p(x, t1) unidimensionale del processo X(t) al tempo t = t1. x3 x1 x2 t 1 t t 1 t t 1 t E' come se osservassimo la variabile casuale X(t1) quindi dp = p(x,t1)dx è la probabilità che l'osservazione del processo casuale, prenderà al tempo t = t1, un valore compreso tra x e x+dx. Le informazioni desunte da una tale densità di probabilità unidimensionale, sono insufficienti per stabilire come si evolverà nel tempo. Maggiori informazioni si possono avere prendendo due sezioni attraverso il processo stocastico a tempi diversi t1 e t2. Otteniamo così una densità di probabilità bidimensionale della variabile bidimensionale rappresentata da {X1(t), X2(t)} ossia p(x1,x2,t1,t2). Quindi dp = p(x1,x2,t1,t2)dx1dx2 rappresenta la probabilità che l'osservazione del processo stocastico, assumerà un valore che al tempo t1 sia compreso tra x1 e x1+dx1 e al tempo t2 tra x2 e x2+dx2. La naturale estensione della densità di probabilità bidimensionale è la densità di probabilita’ multi dimensionale: p(x1,...,xn,...,t1,...,tn) che deve soddisfare le stesse condizioni, già viste, imposte alle altre densità di probabilità. Anche in questo caso si può fare uso della funzione caratteristica multi dimensionale. +∞ +∞ Θ(v1,...,vn ,t1,...,tn ) = ∫ ... ∫ ei( x1v1+...+xnvn ) p( x1,...,xn ,t1,...,tn )dx1...dxn −∞ − ∞ • Densità di probabilità multi dimensionale con un ordine n sufficientemente grande possono descrivere abbastanza bene i processi stocastici però esse sono molto difficili da ottenere e da manipolare. Quindi in pratica ci si riduce a calcolare i momenti delle variabili casuali X(t1) e X(t2) ottenute da una " sezione " al tempo t1 e t2 del processo stocastico. 49 Momenti delle funzioni dei processi stocastici Naturalmente, in questo caso, i momenti sono funzioni del tempo e non parametri delle distribuzioni. Il valore medio del processo X(t) all'istante t è: +∞ m(t ) = x (t ) = ∫ xp( x, t )dx −∞ La media è fatta sulle osservazioni dell'intero sistema. Una misura dell'indeterminazione dei valori istantanei presi da osservazioni individuali in una determinata sezione, rispetto al valore medio, è data da: +∞ 2 2 2 σ (t ) = [x(t ) − m(t )] = ∫ [x(t ) − m(t )] p( x, t )dx −∞ Il secondo momento centrale è dato da: +∞+∞ K (t1, t2 ) = [x(t1) − m(t1)][x(t2 ) − m(t2)] = ∫ ∫ [x(t1) − m(t1)][x(t2 ) − m(t2)]p(x1, x2,t1,t2 )dx1dx2 −∞ −∞ è detto funzione di auto correlazione del processo stocastico X(t). Essa ci dà informazioni circa come i valori di X(t) al tempo t1 sono correlati con quelli osservati al tempo t2. Ovviamente se le sezioni coincidono, cioè se t1 = t2 , allora: K (t1, t2 ) t =t =t = σ 2 (t ) 1 2 Processi stocastici stazionari Il termine stazionario significa che le caratteristiche statiche di un processo stocastico rimangono invariate nel tempo. definizione: Un processo stocastico si dice stazionario in senso stretto se la densità di probabilità multi dimensionale di ordine n è invariante per traslazione temporale, cioè t → t+τ. Quindi p(x1,...,xn,t1,...,tn) = p(x1,...,xn,t1+τ,...,tn+τ) per qualsiasi t e n. Questo va sotto il nome di narrow-sense. Se ci limitiamo alla richiesta che solo m e σ2 siano indipendenti dal tempo ma che la funzione di auto correlazione dipenda dalla differenza di tempo τ = t2 - t1 , allora si parla di processo stocastico " stazionario in senso allargato " cioè se K(t1,t2) =K( t2 - t1) . Questo va sotto il nome di wide-sense. Vediamo alcune proprietà di K(t1,t2): 1. In seguito alla definizione del processo stocastico stazionario ( indipendenza delle caratteristiche statistiche dal tempo ), la funzione K(t1,t2) è pari: K(τ) = K(-τ) e K(t2-t1) = K(t1-t2) 2. K(τ) ≤ K(0) = σ2 per qualsiasi τ. Infatti dalla ovvia disuguaglianza: {[x(t ) − m] − [x(t + τ ) − m]}2 ≥ 0 si ha: [x(t ) − m]2 − 2[x(t ) − m][x(t + τ ) − m] + [x(t + τ ) − m]2 = σ 2 − 2 K (τ ) + σ 2 50 perché m e σ2 sono indipendenti da t. Quindi: 2σ2-2K(τ) ≥ 0 dalla quale si deduce: σ2 ≥ K(τ) e K(0) ≥ K(τ) frequentemente si usa il " coefficiente di correlazione " R(τ): R (τ ) = K (τ ) σ2 è ovvio che R(0) = 1. Esempio. Stazionarieta’ di un processo Un processo stocastico è costituito da osservazioni della forma: u(t) = u0cos (ω0t+ϕ) in cui u0 e ω0 sono costanti mentre la fase ϕ è una variabile casuale uniformemente distribuita nell'intervallo : -π ≤ ϕ ≤ +π. Quindi la densità di probabilità p(φ): pϕ = 1 2π il valore medio del processo e’: u 0 +π u (t ) = u0 +π sin(ω 0 t + ϕ ) −π = 0 ∫ cos(ω 0 t + ϕ )dϕ = 2π −π 2π la varianza: σ 2 = (u − u )2 = u 2 − u 2 = u 2 = u 02 2π +π ∫ [cos (ω 0 t + ϕ )]dϕ = u 0 2 2 −π 2 la funzione di auto correlazione: K (t1, t2 ) = [u (t1) − m(t1)][u (t2 ) − m(t2 )] essendo m(t1) = 0 allora segue che m(t1) = m(t2) = 0; quindi: u02 +π u02 u02 K(t1, t2 ) = [u(t1)u(t2 )] = ∫ cos(ω0t1 + ϕ )cos(ω0t2 + ϕ )dϕ = {cos[ω0 (t2 − t1)]π } = cos[ω0 (t2 − t1)] 2π −π 2π 2 allora il processo stocastico studiato risponde ai requisiti: 1. m=0 ⇒ indipendente dal tempo σ2 = u02/2 2. 3. K (t1, t2 ) = ⇒ indipendente dal tempo 2 0 u cos[ω0 (t2 − t1 )] cioè dipendente solo dalla differenza di tempo t2 - t1 = τ 2 Per cui concludiamo che esso è un processo stocastico in senso allargato ( Wide sense) Invece se lo stesso processo avesse ω0 e ϕ costanti con u0 variabile casuale in modo arbitrario, allora: +∞ u = cos(ω 0 t + ϕ ) ∫ u 0 p ( x, t )dx = u 0 cos(ω 0 t + ϕ ) −∞ che è indipendente da t solo per u0 = 0 quindi il processo stocastico non sarebbe stazionario. 51 Ergodicità Un processo stazionario X(t) è ergodico se le medie del suo insieme possono essere sostituite dalle medie temporali. La media è realizzata su una singola osservazione x(t) la cui durata T tende all'infinito. Indicando con < > la media temporale, il valore medio m di un processo stocastico ergodico, è: 1T m = x (t ) = lim ∫ x(t )dt T →∞ T 0 Questo rappresenta il termine costante in una osservazione. La varianza è: 1T 2 2 2 σ 2 = x (t )− m 2 = lim ∫ x(t ) − m dt = x(t ) − m T →∞ T 0 [ [ ] ] Questa ha un significato fisico importante: poiché <x2(t)> è la potenza media del processo in una osservazione e m2 è la potenza del termine costante, la varianza rappresenta la potenza del termine fluttuante del processo ergodico. La funzione di auto correlazione è: K(τ) = < [x(t)-m][x(t+τ)-m] > = < x(t)x(t+τ) > - m2 Affinché un processo stocastico sia ergodico occorre anzitutto che esso sia stazionario in senso allargato ( Wide sense ). Una condizione sufficiente per l'ergodicità di un processo stocastico è quella che fa tendere a zero la funzione di auto correlazione al tendere del tempo di traslazione τ all'infinito: lim K (τ ) = 0 τ →∞ Comunque la condizione matematica determinata da Slusky è: 1T lim ∫ K (τ )dτ = 0 T →∞ T 0 Ciò lo si può interpretare dicendo che il valore medio della funzione di auto correlazione deve essere nullo. Questo è rispettato dal primo esempio fatto. Misurare le caratteristiche di un processo casuale Se un processo è ergodico, l'osservazione, per un periodo " sufficientemente " lungo è rappresentativa dell'intero insieme, anche se si osserva un solo " pattern ". Uno strumento per misurare la densità di probabilità unidimensionale di un processo stocastico si può realizzare, ad esempio, nel modo seguente. La densità di probabilità unidimensionale di un processo ergodico può essere considerata come una quantità proporzionale all'intervallo di tempo durante il quale il " pattern " del processo ha un valore compreso tra x e x+∆x (v. fig.). 52 Se costruiamo un sistema, a due ingressi (comparatore), capace di dare una risposta di tipo discreto al raggiungimento di un predeterminato valore analogico del segnale presente ad uno di essi e all'altro applichiamo un livello costante aggiustabile tra x0 e x0+∆x, in uscita sarà disponibile un segnale con ampiezza costante, e durata variabile in proporzione alla derivata nell'istante t. Il valore medio della corrente in uscita, è proporzionale alla densità di probabilità p(x0), a meno di una costante. 53 Teoria della correlazione dei processi stocastici La teoria dei processi stocastici basata sull'uso delle funzioni del secondo momento centrale e non è detta teoria delle correlazioni. Vedremo che vi è una profonda e stretta relazione tra la correlazione e le proprietà' dei segnali stocastici. Rappresentazione spettrale dei processi stocastici stazionari In linea di principio i metodi di analisi utilizzati per i segnali deterministici, non potrebbero andare bene per i segnali stocastici. Comunque un certo numero di importanti caratteristiche dei segnali stocastici possono essere derivate utilizzando le trasformate di Fourier ( diretta ed inversa ) delle funzioni formate mediando le osservazioni. Lo spettro delle " osservazioni " Consideriamo un processo stocastico stazionario X(t) con valore medio x = 0 . Se prendiamo una singola osservazione o " pattern " x(t) del processo stocastico X(t), questa può essere assimilata, o meglio, è una funzione deterministica che può essere quindi rappresentata attraverso la trasformata di Fourier ( anti ) 1 +∞ iωt x (t ) = ∫ S (ω )e 2π −∞ dω in cui S(ω) è un certo spettro deterministico. Se vogliamo ora descrivere l'intero insieme delle osservazioni che formano il processo X(t), dobbiamo assumere che le corrispondenti S(ω) una per ogni osservazione, sono funzioni stocastiche della frequenza. x1(t) ↔ s1(ω);xn(t) ↔ sn(ω); X(t) ↔ S(ω) Allora un processo stocastico nel dominio di t è connesso ad un altro processo nel dominio di ω .Vi è una corrispondenza puntuale tra le singole osservazioni dei due processi. La questione cruciale è: Quali proprietà dovrebbero possedere le funzioni casuali S(ω) affinché il processo stocastico X(t) sia stazionario? Proprietà di uno spettro stocastico Per rispondere alla questione, prendiamo il valore medio dei valori istantanei dell'insieme: 1 +∞ i ωt x= ∫ S (ω )e 2π −∞ dω e poniamolo uguale a zero. Tale condizione è soddisfatta per qualsiasi t solo se: S (ω ) = 0 Possiamo allora dire che, per un processo stocastico stazionario [ x = 0 ], lo spettro casuale deve avere un valore medio nullo a tutte le frequenze, per ciascuna osservazione individuale. Vediamo ora le condizioni che devono essere soddisfatte dalla funzione di auto correlazione K(τ) che, nel dominio di t, deve dipendere solo da una traslazione temporale τ. 54 Osserviamo che, essendo x(t) un segnale reale: x(t) = x*(t) e quindi x * (t ) = 1 2π +∞ ∫S * (ω )e −iωt dω −∞ Poiché x = 0 , K(τ) si può scrivere: K (τ ) = x(t ) x (t + τ ) = x * (t ) x(t + τ ) utilizzando l'espansione spettrale otteniamo: 1 +∞ +∞ K (τ ) = ∫ ∫ S (ω ) S * (ω ' )e (2π )2 − ∞ − ∞ iù (t +ô ) − iω ′t e dωdω ′ che possiamo anche riscrivere: K (τ ) = +∞ +∞ S (ω ) S * (ω ′)eiù τ e −i (ω −ω ′)t dωdω ' 2 ∫ ∫ (2π ) −∞ −∞ 1 Separando i due integrali abbiamo: K (τ ) = +∞ +∞ eiωτ dω ∫ S (ω ) S * (ω ′)e −i (ω −ω ′)t dω ′ 2 ∫ (2π ) −∞ −∞ 1 nella quale il fattore S (ω ) S (ω ′) ha il significato di una funzione di auto correlazione spettrale * cioè di una spettro casuale. Affinché K(τ) dipenda solo da τ e non da t, occorre che: S (ω ) S * (ω ′) ∝ δ (ω − ω ′) cioè proporzionale ad una δ . Vale a dire che lo spettro S(ω) di un processo stocastico stazionario ha una struttura molto specifica: • Gli spettri corrispondenti a qualsiasi due frequenze non coincidenti sono mutuamente correlati mentre • La varianza dello spettro casuale è infinitamente larga Questa forma di associazione statistica si chiama, appunto, δ -correlation. Spettro di potenza di un processo stocastico stazionario * Se riscriviamo la condizione di probabilità tra S (ω ) S (ω ′) e la δ(ω-ω') introducendo come fattore di proporzionalità una funzione della frequenza, W(ω), abbiamo: S (ω ) S * (ω ′) = W (ω )δ (ω − ω ′) Questa nuova funzione gioca un ruolo fondamentale nella teoria dei processi stocastici stazionari. Essa infatti rappresenta lo spettro della densità di potenza o, più semplicemente, lo spettro di potenza del processo X(t). Con questa posizione si ha che K(τ) diventa: 1 +∞ iωτ +∞ 1 +∞ iωτ ′ ′ K (τ ) = e d ω W ( ω ) δ ω ω d ω ( − ) = ∫ ∫ W (ω )e dω 2 ∫ 2π −∞ (2π ) −∞ −∞ Possiamo allora affermare che: la funzione di auto correlazione, K(τ), e lo spettro di potenza di un processo stocastico stazionario con valore medio nullo, sono uno la trasformata di Fourier dell'altro. Questo è quello che va sotto il nome di relazione di Wiener-Khinchin (W-K). Quindi: 55 1 K (τ ) = 2π W (ω ) = +∞ ∫ W (ω )e iωτ dω −∞ +∞ ∫ K (τ )e −iωτ dτ −∞ Per chiarire meglio il significato dello spettro di potenza consideriamo il valore K(0) cioè il punto τ = 0. Sappiamo che K(0) = σ2, allora: 1 +∞ ∫ W (ω )dω 2π −∞ cioè, la varianza, valore medio della potenza del processo stocastico stazionario, è data dalla somma dei contributi di tutte le frequenze e la W(ω ω ) è una misura della potenza media del processo per unità d'intervallo di frequenza. Naturalmente, dal punto di vista fisico, lo spettro di potenza dovrà essere reale e non negativo [ W(ω ) ≥ 0 ]. Una cosa importante che va notata è che essendo W(ω) ≥ 0 reale, esso non dà nessuna σ2 = informazione sulla relazione di fase esistente tra le componenti spettrali individuali. Perciò è in linea di principio e’ impossibile ricostruire ciascuna osservazione individuale di un processo stocastico, partendo dal suo spettro di potenza. Spettro di potenza " one-sided " Poiché K(τ) è una funzione pari, anche W(ω) è pari, quindi la coppia di trasformate di Fourier può essere così scritta: 1 2π K (τ ) = W (ω ) = +∞ +∞ iωτ ∫ W (ω )e dω = −∞ ∫ K (τ )e − iωτ −∞ +∞ 1 W (ω ) cos ωτdω π ∫0 +∞ dτ = 2 ∫ K (τ ) cos ωτdτ 0 Allora è d'uso introdurre lo spettro di potenza " one-sided " F(ω) definito: W (ω ) π F (ω ) = 0 per ω > 0 per ω < 0 In questo modo, la varianza si può esprimere come integrale sulle frequenze reali: +∞ 2 σ = K (0) = ∫ F (ω )dω 0 Il teorema di W-K è uno dei più importanti nel campo della teoria applicata e permette una facile manipolazione dei problemi. Esempio. Processo con autocorrelazione, K(τ), esponenziale. Un processo stocastico ha una funzione K(τ) di forma esponenziale. Supponiamo di conoscere la forma della K(τ): K (τ ) = σ 2e Allora lo spettro di potenza W(ω) sarà: +∞ W (ω ) = 2 ∫ σ e 2 0 −α τ −α τ cos ωτdτ = 2e −α τ con α ∈ ℜ σ2 [α cos ωτ − ω sin ωτ ] 2 2 α +ω +∞ 0 2σ 2α = 2 α +ω2 56 Quindi lo spettro " one sided " è: F (ω ) = 2 ασ 2 π α 2 +ω 2 che ha un massimo in zero e " un carattere di bassa frequenza ". Esempio. Spettro di potenza, W(ω), Gaussiano. Supponiamo che lo spettro W(ω) di potenza di un processo stocastico X(t), abbia un andamento gaussiano: W (ω ) = W0e− βω 2 τ2 − + ∞ W W 1 − βω 2 e 4β Troviamo la corrispondente K(τ): K (τ ) = 0 ∫ e cosωτdω = 0 π 0 2 πβ quindi uno spettro di potenza gaussiana dà una funzione di auto correlazione ancora gaussiana dalla quale si può dedurre la σ2 del processo stocastico: σ 2 = K (0) = W0 2 πβ Esempio. Spettro di Potenza, W(ω),limitato in frequenza. Un processo stocastico stazionario con uno spettro di potenza limitato in frequenza inferiormente. Sia: W W (ω ) = 0 0 - ω 1 < ω < ω1 ovunque Allora la ω1 1 W sinωτ W sinω1τ W0ω1 sinω1τ K (τ ) = W0 ∫ cos ωτdω = 0 = 0 = π π τ 0 π τ π ω1τ 0 ω1 e la varianza del processo: σ 2 = K (0) = W0ω1 π K(τ): 57 Se usassimo la " one sided " F(ω) avremo una scrittura più significativa della varianza: F = W0 π F (ω ) = 0 0 0 < ω < ω1 e la varianza: σ 2 = W0 ω1 = F0ω1 π Tempo di correlazione In generale le funzioni di auto correlazioni, K(τ), dei processi stocastici, in particolare quelli trattati nella teoria delle comunicazioni, tendono a zero all'aumentare della traslazione temporale τ. Cioè K(τ) → 0 per τ → ∞. Più rapidamente tende a zero K(τ) più debole è la relazione statistica tra i valori istantanei di un segnale casuale osservato a due istanti differenti di tempo. E' quindi utile valutare quantitativamente la " velocità di cambiamento " delle osservazioni di un processo stocastico in termini di un " tempo di correlazione " τcorr che può essere definito: τ corr = +∞ 1 +∞ ∫ K (τ )dτ = ∫ R(τ )dτ K (0) 0 0 Rozzamente, possiamo " predire " in senso probabilistico il comportamento di ciascuna osservazione su un intervallo di tempo τcorr se conosciamo il comportamento di quella osservazione nel passato. Qualsiasi tentativo di predire il comportamento per un tempo eccedente τcorr potrebbe essere futile, oltre questo intervallo i valori istantanei del processo sono sostanzialmente variabili indipendenti, cioè il valore medio del prodotto x(t)⋅x(t+τ) è molto prossimo a zero. Banda effettiva Consideriamo un processo che sia caratterizzato da una " one-sided " F(ω) tale che esista un valore estremo della funzione Fmax. Da un punto di vista concettuale possiamo rimpiazzare questo processo stocastico con un altro qualsiasi in cui lo spettro di potenza è costante e uguale a Fmax entro la banda [ ∆ωeff ] frequenze scelta, purché la potenza media sia la stessa per entrambi i processi. Possiamo allora scrivere: +∞ Fmax ⋅ ∆ω eff = ∫ F (ω )dω 0 +∞ e poiché: ∫ F (ω )dω = K (0) = σ 2 ricaviamo: σ2 = Fmax ⋅∆ωeff molto utile nel calcolo della 0 tensione di rumore. Esempio. Calcolo numerico del rumore Se consideriamo il valore di Fmax e la banda effettiva ∆ωeff allora possiamo ricavare il rumore del processo. Sia infatti Fmax = 5 10-9 V2s e ∆ωeff = 3 105 s-1 allora σ2 = 15 10 -4 V2 da cui σ = 39 mV che è il valore efficace del rumore o R.M.S.. 58 Rumore bianco Il termine rumore bianco, forzosamente mutuato dalla luce bianca nel caso ottico, si riferisce ad un processo stocastico in cui lo spettro di potenza è lo stesso a tutte le frequenze, cioè è costante: W(ω) = W0 = cost. Dal teorema W-K possiamo ricavare la K(τ) del processo: W +∞ K (τ ) = 0 ∫ eiωτ dω = W0δ (τ ) 2π − ∞ +∞ −iωt in quanto lo spettro di una delta è una costante, ossia: S (ω ) = A ∫ e δ (t )dt = A −∞ che ci indica come lo spettro del rumore bianco è infinitamente esteso, o che è lo stesso, la funzione di auto correlazione è una delta temporale. La scorrelatezza dei valori istantanei delle osservazioni implica che essi variano nel tempo con una velocità infinitamente grande. Il rumore bianco è solo un modello matematico e non esiste in natura nessun processo stocastico che si comporti così. Derivata di un processo stocastico Supponiamo che sia possibile applicare ad una qualsiasi osservazione x(t) di un processo stocastico X(t), una rete che operi una differenziazione e produca in uscita una nuova osservazione y(t) = dx(t)/dt. L'insieme delle osservazioni y(t) formano un processo stocastico Y(t) detto derivata di X(t). Simbolicamente: Y (t ) = dX (t ) . Se x = m x è il valore medio di un processo stocastico dt stazionario, al fine di trovare il valore medio del processo derivato, dovremo prendere la media delle osservazioni in uscita. Quindi: my = y = dx(t ) d = mx = 0 dt dt stocasticamente parlando. Quindi la differenziazione di un processo stocastico stazionario, produce un nuovo processo con valore medio nullo. La funzione di auto correlazione K(τ) richiede l'assunzione, per semplicità di calcolo, che il valore medio del processo sia nullo. Non si perde in generalità in quanto possiamo sempre pensare che al processo x(t) sia associato un altro x*(t) = x(t) - mx. Allora considerando che: dx x(t + ∆t ) − x(t ) = lim possiamo dt ∆t →0 ∆t scrivere la K y (τ ) = y (t ) y (t + τ ) come: x(t + ∆t ) − x (t ) x(t + τ + ∆t ) − x(t + τ ) ⋅ = ∆t ∆t ∆t →0 K y (τ ) = lim lim 1 ∆t →0 (∆t )2 [x(t + ∆t ) x(t + τ + ∆t ) − x(t + ∆t ) x(t + τ ) − x(t + ∆t + τ ) x(t ) + x(t ) x(t + τ )] Questi quattro termini se considerati a tempi diversi possono essere rappresentati come funzioni di auto correlazione del processo originario X(t). Infatti: 59 x(t+∆t)⋅x(t+τ+∆t) con t' = t+∆t diventa x(t')⋅x(t'+τ) che insieme al termine x(t)⋅x(t+τ) dà 2Kx(τ). x(t+∆t)⋅x(t+τ) può essere scritto come: x(t+∆t-∆t)⋅x(t+τ-∆t) e allora è il Kx(τ-∆t) x(t)⋅x(t+τ+∆t) è evidentemente il termine Kx(τ+∆t) Otteniamo quindi: K y (τ ) = lim 1 ∆t →0 (∆t )2 [2K x (τ ) − K x (τ − ∆t ) − K x (τ + ∆t )] che può essere vista come la derivata seconda cambiata di segno di Kx(τ). Possiamo allora scrivere: K (τ ) Ky(τ) = - Kx''(τ) = -σ2xR''(τ); con R(τ ) = coefficiente di correlazione. σ2 Integrale di un processo stocastico Sia z(t) un processo stocastico definito dall'integrale limitato al tempo t di un processo stocastico X(t). Esisterà allora una corrispondenza tra le osservazioni z(t) e x(t): t z (t ) = ∫ x(t1 )dt1 0 Il significato fisico è quello di una osservazione del segnale stocastico in uscita da un integratore ideale che inizia al tempo t = 0. Se il processo X(t) è stazionario con valore medio mx, il valore medio del segnale stocastico in uscita sarà: t m z = z (t ) = ∫ x (t1 )dt1 = m x t 0 Quindi se il valore medio mx è diverso da zero il processo in uscita non è stazionario. t 2 t2 La K(τ) del processo integrato è: K z (t1, t2 ) = ∫ ∫ x(t′) x(t′′) dt ′dt ′′ t1 t1 che stocasticamente possiamo scrivere: t1 t2 K (t1 , t 2 ) = ∫ ∫ x(t ′) x (t ′′)dt ′dt ′′ 00 t1 t 2 quindi: K (t1, t2 ) = ∫ ∫ K x (t ′, t ′′) dt ′dt ′′ 00 Se il processo stocastico in ingresso X(t) è stazionario allora la Kx(t',t'') si può scrivere come dipendente solo dalla differenza dei tempi: Kx(t'' - t') e quindi Ky(t1,t2) sarà: t1 t 2 K y (t1, t2 ) = ∫ ∫ K x (t ′′ − t′)dt ′dt ′′ 00 Risolvendo l'integrale definito, si vede che esso dipenderà dai tempi t1 e t2 e non dalla differenza. Si conclude che il processo stocastico integrato non è stazionario. Allora l'importanza fisica sta nel fatto che il livello delle fluttuazioni in uscita di un integratore ideale cresce senza limiti. 60 Un corrispondente in termodinamica si ha con il moto browniano. Le particelle ideali, avendo uguale probabilità di essere colpite in due direzioni opposte, rimangono mediamente nella stessa posizione ma la loro deviazione aumenta progressivamente nel tempo senza limitazione.