1
.
Universita’ di Roma ’Sapienza’
Dispense per il corso di Segnali Deterministici e Stocastici
Corso di Laurea in Ingegneria Clinica
Segnali aleatori
Lorenzo Piazzo
Versione Bozza del 10/12/2020
2
Indice
1 Introduzione 5
2 Segnali aleatori 7
2.1 Segnali e sequenze aleatori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2 Densita’ di probabilta’ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.3 Medie d’insieme del primo ordine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.4 Medie d’insieme del secondo ordine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.5 Densita’ e medie congiunte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.6 Operazioni sui processi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3 Processi stazionari 27
3.1 Funzioni invarianti alla traslazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.2 Processi stazionari in senso stretto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.3 Processi stazionari in senso lato . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.4 Medie di insieme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.5 Spettro e banda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.6 Filtraggio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.7 Campionamento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.8 Ergodicita’ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4 Processi notevoli ed applicazioni 43
4.1 Classificazione e processi notevoli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.2 Somma di processi indipendenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.3 Rumore termico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.4 Quantizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
5 Appendice 53
5.1 Fenomeni e variabili aleatorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.2 Valori attesi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.3 Densita’ notevoli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.4 Unita’ logaritmiche - Decibel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.5 Formule utili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3
4 INDICE
Capitolo 1
Introduzione
Questa dispensa e’ il seguito della dispensa ”Segnali deterministici” dello stesso autore [1] e fornisce
un’introduzione ai segnali aleatori. Si da’ per scontato che il lettore abbia letto la [1], a cui ci si riferisce
in molti punti. Per esempio, le notazioni che useremo sono le stesse che abbiamo introdotto in [1] sezione
1.4. Inoltre, per seguire questo testo, il lettore deve possedere qualche conoscenza di base di calcolo
delle probabilita’. Alcuni risultati, presi da [2], vengono riassunti in appendice per poterli citare durante
l’esposizione.
Per quanto riguarda i segnali deterministici, ottime presentazioni sono [7, 8]. Per quanto riguarda
calcolo delle probabilita’ e segnali aleatori, ottimi libri sono [3, 4, 5]. Testi che coprono sia i segnali
determinstici che quelli stocastici sono [6, 9].
5
6 CAPITOLO 1. INTRODUZIONE
Capitolo 2
Segnali aleatori
Molti fenomeni fisici di interesse emettono segnali non noti a priori. Per esempio uno strumento che suona,
un bersaglio che riflette il segnale di un radar, il rumore termico che disturba un apparecchio di misura
sono tutti esempi di fenomeni fisici che emettono segnali non noti a priori. Questi segnali non possono
essere analizzati con gli strumenti introdotti per trattare i segnali deterministici, cioe’ considerando i
segnali come funzioni note, ma possono essere caratterizati in termini statistici. Questo approccio viene
formalizzato nel seguito di questo capitolo, introduendo il concetto di segnale o processo aleatorio.
Dopo le definizioni, date nella prima sezione, vengono presentati gli strumenti quantitativi con i quali
si analizzano questi segnali ed in particolare le densita’ di probabilita’ e le medie di insieme. Nell’ultima
parte del capitolo vengono discusse alcune operazioni che si applicano ai processi aleatori.
2.1 Segnali e sequenze aleatori
Ricordiamo che, nel calcolo delle probabilita’, dato un fenomeno aleatorio ed indicato con Ω l’insieme dei
suoi possibili risultati, una variabile aleatoria e’ una regola per associare ad ognuno dei possibili risultati
un numero. Quindi, come illustrato in figura 2.1, una variabile aleatoria e’ una funzione X(ω) dove ω ∈ Ωe’ il risultato di una esecuzione (ripetizione) del fenomeno. In modo simile un processo aleatorio e’ una
regola per associare ad ognuno dei possibili risultati una funzione [3]. Quindi un processo aleatorio e’
una funzione x(z, ω) definita per ω ∈ Ω e per z appartenente ad un insieme opportuno1. Il caso di cuici occuperemo e’ quello in cui z e’ una variabile temporale. In particolare, se l’insieme di definizione di
z e’ continuo, useremo t al posto di z. In questo caso il processo x(t, ω) e’ una funzione del tempo e
del risultato del fenomeno e viene anche detto un segnale aleatorio oppure un processo tempo continuo.
Se invece l’insieme di definizione di z e’ discreto, useremo n al posto di z. In questo caso il processo
x(n, ω) e’ una funzione dell’indice n e del risultato del fenomeo aleatorio e viene anche detto una sequenza
aleatoria oppure un processo tempo discreto. Lo sviluppo della teoria e’ praticamente identico nei casi
tempo continuo e tempo discreto, quindi tratteremo principalmente il caso continuo estendendo al caso
discreto quando ritenuto utile. Sulla base della definizione, un processo si puo’ visualizzare in modo
schematico come mostrato in figura 2.2 e cioe’ come un insieme di funzioni del tempo, dette realizzazioni
del processo, ciascuna etichettata con uno dei possibili risultati. La variabile ω viene detta la variabile
d’insieme e le variabili t oppure n le variabili temporali.
E’ utile notare che la scrittura x(t, ω) ha le seguenti quattro interpretazioni. Pensando sia t che ω
come variabili rappresenta un processo. Pensando t variabile ed ω assegnato, e’ una particolare funzione
del tempo (realizzazione). Pensando t assegnato e ω variabile, e’ una variabile aleatoria che viene detta
estratta dal processo. Pensando sia t che ω come valori assegnati, e’ un numero. Il contesto chiarira’ quale
1Una deifnizione equivalente e’ dire che un processo aleatorio e’ una infinita’ di variabili aleatorie, x(z, ω), indicizzate
con un parametro z che varia in un insieme opportuno.
7
8 CAPITOLO 2. SEGNALI ALEATORI
Figura 2.1: Rappresentazione schematica di una variabile aleatoria. E’ una funzione che associa un
numero reale ad ogni risultato del fenomeno aleatorio.
Figura 2.2: Rappresentazione schematica di un processo. E’ una funzione che associa una funzione del
tempo ad ogni risultato del fenomeno aleatorio.
delle quattro interpretazioni viene usata. Le stesse considerazioni valgono per il caso tempo discreto,
ovvero per la scrittura x(n, ω). Nel seguito, per semplificare la notazione, ometteremo di indicare la
dipendenza dalla variabile di insieme e quindi scriveremo semplicemente x(t) per indicare il processo
x(t, ω).
Per fissare le idee e semplificare la presentazione, conviene imporre alcune condizioni sulle realizzazioni,
che d’ora in poi verrano ritenute valide se non specificato altrimenti. Per prima cosa, assumeremo che,
nel caso continuo, le realizzazioni siano definite per tutti i valori di t, da −∞ a +∞. Analogamente,nel caso discreto, le realizzazioni sono definite per tutti i valori interi di n, da −∞ a +∞. Inoltre, nelcaso continuo, conviene assumere che le realizzazioni verifichino alcuni requisiti minimi di regolarita’.
In particolare, assumiamo che siano funzioni continue quasi ovunque. In generale, le realizzazioni sono
funzioni a valori complessi ma, per semplicita’, nello sviluppo e negli esempi ci concentriamo sul caso dei
processi a valori reali, estendendo al caso complesso dove ritenuto utile.
Sorgente aleatoria. Ricordiamo che nella definizione di una variabile aleatoria, si suppone che il
fenomeno aleatorio sia ripetibile un numero a piacere di volte, in modo che sia possibile produrre diverse
determinazioni della variabile aleatoria. Ma quando il fenomeno aleatorio viene usato per definire un
processo, visto che il risultato e’ una funzione del tempo che dura da −∞ a ∞, non e’ pensabile diripetere il fenomeno aleatorio piu’ di una volta. Quindi l’ipotesi di ripetibilita’ viene sostituita con
quella di replicabilita’, ovvero si suppone di disporre di un numero alto a piacere di copie dello stesso
fenomeno aleatorio, dette sorgenti aleatorie, ciascuna delle quali produce una realizzazione del processo
corrispondente. In particolare, data una sorgente, a priori non e’ noto quale delle realizzazioni verra’
prodotta e la sorgente va analizzata come un processo aleatorio. Invece a posteriori, dopo aver osservato
l’uscita, la sorgente produce una realizzazione del processo e cioe’ un segnale deterministico. A livello
grafico una sorgente aleatoria viene indicata con un cerchio da cui esce una freccia etichettata con la
realizzazione emessa, come mostrato in figura 2.3.
2.1. SEGNALI E SEQUENZE ALEATORI 9
Figura 2.3: Rappresentazione grafica di una sorgente aleatoria.
Esempio 1 Rumore termico. Consideriamo una resistenza. Gli elettroni contenuti al suo interno sono
in continuo e casuale movimento e questi movimenti fanno si’ che ai capi della resistenza sia presente
una differenza di potenziale (tensione), indicata con v(t), anche quando la resistenza non e’ inserita in un
circuito. Questa tensione non e’ nota a priori, varia nel tempo ed e’ diversa fra resistenza e resistenza.
Inoltre la sua ampieza dipende dalla temperatura a cui si trova la resistenza, visto che questa e’ una
misura appunto della velocita’ con cui si muovono gli elettroni. Per questo motivo la tensione v(t) e’
detta rumore termico. Per trattare il rumore termico in modo quantitativo e’ possibile modellarlo come
un processo aleatorio di cui ogni resistore sia una sorgente che produce una particolare realizazione. �
Notiamo che nell’esempio che abbiamo appena visto non abbiamo dato una descrizione completa
del fenomeno aleatorio ne’ del processo. Per esempio non abbiamo specificato l’insieme dei risultati, ne’
l’associazione fra risultati e realizzazioni. Questa e’ la situazione normale, la piu’ diffusa in pratica. Infatti,
le definizioni che abbiamo dato sono astrazioni, utili per inquadrare il ragionamento a livello teorico ma
normalmente troppo complicate per essere sfruttate in un approccio quantitativo. Per affrontare i processi
in modo operativo, useremo altri strumenti, in particolare i concetti di densita’ e medie di insieme, che
verranno introdotti nelle sezioni successive. Solo in casi particolarmente semplici, e’ possibile specificare
il fenomeno aleatorio ed il processo in modo piu’ completo. Qui sotto vediamo due casi importanti.
Processi ad aleatorieta’ parametrica. Un processo si dice ad aleatorieta’ parametrica quando le sue
realizzazioni possono essere espresse come funzioni del tempo contenenti uno o piu’ parametri aleatori.
Per esempio, data una variabile aleatoria A = A(ω) con densita’ pA(a), possiamo considerare il seguente
processo
x(t) = Acos2(2πft)
le cui realizzazioni sono costituite da coseni quadri a frequenza f , fase zero e ampiezza aleatoria. Per
rendersi conto che l’espressione precedente definisce in effetti un processo possiamo riscriverla rendendo
esplicita la dipendenza dalla variabile di insieme. Si ottiene
x(t, ω) = A(ω)cos2(2πft).
In questo caso e’ spesso possibile specificare il fenomeno aleatorio sottostante e quindi il legame fra
risultati e realizzazioni. Per esempio, possiamo pensare che la variabile A sia ottenuta facendo girare un
puntatore (si veda sezione 5.1) e sommando 1/2 al risultato, in modo che abbia distribuzione uniforme
in [0, 1]. Alcuni esempi di realizzazioni ottenute in questa ipotesi sono mostrati in figura 2.4.
In conclusione, per i processi ad aleatorieta’ parametrica si dispone di una espressione analitica espli-
cita. Questi processi sono quindi un caso particolarmente semplice e sono piu’ facili da analizzare e
studiare. Inoltre, sono un modello adeguato per molti fenomeni ed apparati fisici di interesse pratico.
Esempio 2 Processo armonico Un oscillatore e’ un circuito realizzato in modo da produrre una tensio-
ne sinusoidale con una frequenza f , una ampiezza a ed una fase φ nominalmente assegnate. Naturalmente,
gli oscillatori reali producono forme d’onda i cui parametri si discostano dai valori nominali. Mentre lo
scostamento per l’ampiezza e la frequenza e’ di solito piccolo e puo’ essere trascurato, la fase risulta
difficile da controllare ed e’ praticamente casuale. Allora, la forma d’onda prodotta da un oscillatore puo’
essere moedellata come un processo ad aleatorieta’ parametrica dato da
x(t) = cos(2πft+ φ)
10 CAPITOLO 2. SEGNALI ALEATORI
Figura 2.4: Esempi di realizzazioni del processo x(t) = Acos2(2πft) con A variabile aleatoria uniforme
nell’intervallo [0, 1].
dove φ e’ una variabile aleatoria con densita’ uniforme in [0, 2π] oppure in [−π, π]. Questo processo vienedetto un processo armonico. Le realizzazioni del processo sono coseni con ampiezza e frequenza assegnate
e fase aleatoria. Alcuni esempi sono mostrati in figura 2.5. �
Sequenza iid. Consideriamo una sequenza aleatoria xn cosi’ definita. Per un qualsiasi n assegnato, xne’ una variabile aleatoria con densita’ p(a). Per ogni coppia di interi n e m 6= n, le variabili aleatorie xne xm sono statisticamente indipendenti. Quindi, la sequenza e’ costituita da variabili indipendenti e con
la stessa densita’ di probabilita’ e viene detta una sequenza di variabili indipendenti ed identicamente
distribuite (iid, independent, identically distributed). La sequenza iid e’ un processo aleatorio semplice
ed importante. Vediamo due esempi.
Esempio 3 Consideriamo un puntatore del tipo descritto in sezione 5.1 che viene fatto girare infinite
volte. Numeriamo le girate con gli interi da −∞ a +∞ ed indichiamo con xn il risultato dela n-esimagirata. Il risultato e’ una variabile aleatoria con densita’ uniforme in [−1/2, 1/2]. Inoltre xn e’ statisti-camente indipendente da xm poiche’ il risultato di una girata non ha impatto sul risultato di un’altra
girata. La sequenza e’ dunque una sequenza iid. Alcune realizzazioni sono mostrate in figura 2.6. �
Esempio 4 Consideriamo una moneta che viene lanciata infinite volte. Numeriamo i lanci con gli interi
da −∞ a +∞ ed indichiamo con xn il risultato dell’n-esimo lancio, ponendo xn = 1 se esce testa exn = 0 se esce croce. Il risultato e’ una variabile aleatoria con densita’ uniforme discreta. Inoltre xne’ statisticamente indipendente da xm poiche’ il risultato di un lancio non ha impatto sul risultato di
un’altro lancio. La sequenza e’ dunque una sequenza iid. Alcune realizzazioni sono mostrate in figura
2.6. �
2.2 Densita’ di probabilta’
Densita’ del primo ordine. Consideriamo un processo x(t) a valori reali e fissiamo l’attenzione sul
valore che assume in un particolare istante, per esempio t1. Come abbiamo visto nella sezione precedente
questo valore non e’ noto a priori ed e’ invece una variabile aleatoria, indicata con x(t1), che si dice
estratta dal processo nell’istante t1. Per comprendere meglio la situazione si osservi la figura 2.7 che
2.2. DENSITA’ DI PROBABILTA’ 11
Figura 2.5: Esempi di realizzazioni del processo armonico.
Figura 2.6: Esempi di realizzazioni di processi iid. Sulla sinistra, girate di puntatori. Sulla destra, lanci
di moneta.
mostra alcune realizzazioni ed il valore che assumono per t = t1. Come si vede il valore che il processo
assume in t1 puo’ essere il valore di una qualsiasi delle sue realizzazioni e non e’ noto fino a che non si
osserva la realizzazione. Visto che x(t1) e’ una variabile aleatoria, possiamo descriverla tramite la sua
densita’ di probabilita’, che e’ una funzione di una variabile data da
px(t1)(a).
La notazione che abbiamo usato qui sopra e’ quella tipica del calcolo delle probabilita’, in cui si usa p per
indicare la densita’ e si pone a pedice la variabile aleatoria di cui p e’ la densita’. Inoltre abbiamo usato
a come variabile indipendente invece di x perche’ il simbolo x e’ gia’ usato per indicare il processo.
Nella densita’ che abbiamo appena scritto, t1 e’ pensato come un numero assegnato. Ma possiamo
cambiare punto di vista e pensare invece che t1 sia una variabile, che assume valori sui numeri reali (sui
tempi). Per maggiore chiarezza, possiamo sostituire t1 con t, che e’ il simbolo usato di preferenza per
indicare una variabile temporale. Con questo cambiamento di punto di vista la funzione
px(t)(a)
non e’ piu’ la semplice densita’ di probabilita’ di una variabile aleatoria ma una infinita’ di densita’, una
per ogni valore di t, e viene detta la densita’ del primo ordine del processo. Per sottolineare la differenza
12 CAPITOLO 2. SEGNALI ALEATORI
Figura 2.7: Variabile aleatoria estratta al tempo t1. A priori, la variabile puo assumere il valore di una
qualsiasi realizzazione.
Figura 2.8: Esempio di densita’ del primo ordine di un processo. Per ogni assegnato t resta definita la
densita’ di una normale variabile aleatoria.
e’ possibile introdurre una seconda notazione per questa funzione, che rende esplicita la dipendenza dalla
variabile temporale. In particolare, la indicheremo anche come
px(a; t).
L’ultima espressione rende chiaro che la densita’ del primo ordine di un processo e’ una funzione di due
variabili, di cui la seconda e’ una variabile temporale che indica l’istante di estrazione. Un esempio e’
riportato in figura 2.8. In modo del tutto simile, si puo’ definire la densita’ del primo ordine per un
processo tempo discreto: basta sostituire t con n. Anche l’estensione al caso di un processo a valori
complessi e’ immediata. In questo caso, la variabile estratta e’ complessa e occorre considerare la densita’
congiunta delle parti reale ed immaginaria. Quindi la densita’ del primo ordine risulta essere una funzione
di tre variabili.
Esempio 5 Consideriamo il processo x(t) = A cos2(2πt) dove A e’ una variabile aleatoria con densita’
uniforme nell’intervallo [−1/2, 1/2]. Per un assegnato t, la variabile estratta x(t) sara’ quindi uniformenell’intervallo [− cos2(2πt)/2, cos2(2πt)/2]. Usando la (5.25) si ottiene la seguente densita’ per il processo
px(a; t) =1
cos2(2πt)rect
(
a
cos2(2πt)
)
.
Si noti che per t = k/2+ 1/4 con k intero, il coseno vale zero. In questo caso la variabile x(t) non e’ piu’
aleatoria ma puo’ valere solo zero. Questo fatto viene rispecchiato nella densita’, che non e’ definita per
2.2. DENSITA’ DI PROBABILTA’ 13
Figura 2.9: Variabili aleatorie estratte dal processo in t1 e t2.
t = k + 1/4, ma che per t → k + 1/4 e’ una delta-successione tendente ad un impulso di area unitariaallocato in zero. �
Esempio 6 Consideriamo il processo x(t) = A cos2(2πt) dove A e’ una variabile aleatoria con densi-
ta’ uniforme nell’intervallo [0, 1]. Per un assegnato t, la variabile estratta x(t) sara’ quindi uniforme
nell’intervallo [0, cos2(2πt)]. Usando la (5.25) si ottiene la seguente densita’ per il processo
px(a; t) =1
cos2(2πt)rect
(
a− cos2(2πt)/2cos2(2πt)
)
.
�
Esempio 7 Consideriamo il processo iid ottenuto lanciano infinite volte una moneta, in cui testa vale 1
e croce vale 0. In questo processo la variabile estratta x[n] ha una densita’ discreta uniforme a due valori.
Allora, usando la (5.24), la densita’ del processo si scrive
px(a;n) =1
2δ(a) +
1
2δ(a− 1).
Si noti che non dipende da n. �
Esempio 8 Consideriamo il processo iid ottenuto facendo girare infinite volte un puntatore. In questo
processo la variabile estratta x[n] ha una densita’ uniforme nell’intervallo [−1/2, 1/2]. Allora, usando la(5.25), la densita’ del processo si scrive
px(a;n) = rect(a).
Si noti che non dipende da n. �
Misura della densita’ di probabilita’. Negli esempi precedenti e’ stato possibile ricavare la densita’ di
probabilita’ in modo analitico, ma per la maggior parte dei processi questo non e’ possibile. In questi casi,
quando il processo modella un sistema fisico, e’ possibile, almeno in linea di principio, misurarla. A questo
fine si deve disporre di un numero sufficiente di sorgenti che producano una realizzazione del processo.
Si osservano poi i valori delle realizzazioni nell’istante t1. Questi valori sono altrettante determinazioni
della variabile x(t1) e permettono di stimare la sua densita’, per esempio tramite un istogramma [2].
Densita’ del secondo ordine. La densita’ del primo ordine fornisce informazioni sul valore del processo
in un certo istante ma non dice se e come sono legati i valori del processo in istanti diversi. Quindi, non
fornisce una descrizione sufficiente del processo da un punto di vista statistico. Per ovviare a questo
14 CAPITOLO 2. SEGNALI ALEATORI
problema, possiamo introdurre la densita’ del secondo ordine. A questo fine, consideriamo due istanti
di tempo, indicati con t1 e t2. I valori che il processo assume in questi istanti, cioe’ x(t1) e x(t2),
non sono noto a priori, come mostrato in figura 2.9, ma sono sono una coppia di variabili aleatorie,
estratte dal processo. Supponendo che il processo sia a valori reali, questa coppia di variabili aleatorie
sara’ caratterizzata da una densita’ congiunta che possiamo scrivere con le due notazioni che abbiamo
introdotto e cioe’ come
px(t1)x(t2)(a, b) oppure px(a, b; t1, t2).
Nelle scritture qui sopra abbiamo supposto che gli istanti t1 e t2 siano assegnati, cosi’ che le espressioni
forniscono la densita’ congiunta di una coppia di variabili aleatorie. Ma possiamo cambiare punto di vista
e pensare che t1 e t2 siano variabili che assumono valori sull’asse dei tempi. Con questo secondo punto di
vista, le scritture qui sopra esprimono la densita’ del secondo ordine del processo, che risulta essere una
funzione di quattro variabili, di cui due temporali. In modo del tutto simile, si puo definire la densita’
del secondo ordine per un processo tempo discreto: basta sostituire t con n. Anche l’estensione al caso di
un processo a valori complessi e’ immediata. In questo caso, le variabili estratte sono complesse e occorre
considerare la densita’ congiunta delle loro parti reali ed immaginarie. Quindi la densita’ del secondo
ordine risulta essere una funzione di sei variabili.
Esempio 9 Consideriamo la sequenza iid ottenuta facendo girare infinite volte un puntatore e ricavia-
mone la densita’ del secondo ordine px(a, b;n1, n2). Consideriamo due variabili estratte x[n1] e x[n2] ed
indichiamo con p1(a) e p2(b) le loro densita’. Come sappiamo, hanno tutte e due densita’ uniforme e
quindi
p1(a) = rect(a) p2(b) = rect(b).
Per ricavare la densita’ congiunta, analizziamo separatamente i casi in cui n1 e n2 sono diversi o uguali.
Nel primo caso, in cui n1 6= n2, le variabili x[n1] e x[n2] sono due variabili diverse e sono statistica-mente indipendenti per ipotesi (la sequenza e’ iid). Quindi la densita’ congiunta, che sara’ indicata con
pn1 6=n2(a, b) si ottiene dal prodotto delle marginali ed e’ pari a
pn1 6=n2(a, b) = p1(a)p2(b) = rect(a)rect(b).
Nel secondo caso, in cui n1 = n2, le variabili x[n1] e x[n2] sono la stessa variabile. Quindi la densita’
congiunta e’ degenere e si compone di un termine pari alla densita’ della prima, rect(a), e di un secondo
termine che e’ un impulso che impone l’uguaglianza fra le determinazioni delle due variabili, δ(a− b). Lacongiunta, che sara’ indicata con pn1=n2(a, b), e’ quindi pari a
pn1=n2(a, b) = p1(a)δ(a− b) = rect(a)δ(a− b).
A questo punto, per scrivere la densita’ del processo, possiamo unire i due casi tramite l’impulso discreto,
δ[n1 − n2], che vale zero se n1 6= n2 e vale uno se n1 = n2. Procedendo in questo modo si ricava
p(a, b;n1, n2) = (1− δ[n1 − n2]) pn1 6=n2(a, b) + δ[n1 − n2] pn1=n2(a, b),
e cioe’, esplicitamente
p(a, b;n1, n2) = (1− δ[n1 − n2]) rect(a)rect(b) + δ[n1 − n2] rect(a) δ(a− b). (2.1)
Si noti che la densita’ del secondo ordine dipende dalla differenza fra n1 e n2. �
Densita’ di ordine superiore. Il procedimento che abbiamo usato per definire le densita’ del primo
e del secondo ordine puo’ essere esteso ad un ordine qualsiasi. A questo scopo si assegnano n di istanti
di tempo, t1, ..., tn, e si estraggono le corrispondenti variabili dal processo, x(t1), ..., x(tn). La densita’
2.3. MEDIE D’INSIEME DEL PRIMO ORDINE 15
congiunta delle variabili estratte si scrive (supponendo il processo a valori reali ed usando la notazione
con i tempi esplicitati)
px(a1, ..., an; t1, ..., tn).
Se si pensa che gli istanti t1, ..., tn siano assegnati, la scrittura precedente fornisce la densita’ congiunta
delle variabili estratte. Invece, pensando gli istanti come variabili temporali, la scrittura fornisce la
densita’ di ordine n del processo, che risulta essere una funzione di 2n variabili.
A livello teorico, se siamo in grado di ricavare le densita’ di ordine comunque elevato, abbiamo una
conoscenza statistica completa del processo. Ma naturalmente questo e’ possibile solo in casi molto
semplici. Di norma non siamo in grado di specificare tutte le densita’. Questo non e’ un problema
perche’, in pratica, per la maggior parte delle applicazioni e’ sufficiente una conoscenza solo delle densita’
del primo e del secondo ordine. Anzi, in molte applicazioni anche questa e’ una conoscenza troppo
dettagliata e ci si puo’ accontentare di una descrizione statistica piu’ sintetica, basata su alcune medie
che vengono introdotte nelle prossime sezioni.
2.3 Medie d’insieme del primo ordine
Dato un processo x(t), estraiamo una variabile aleatoria all’istante t, indicata ancora con x(t). Possiamo
valutare la media, la varianza ed il valore quadratico medio di questa variabile. In particolare, indicando
con E{.} l’operatore di valore atteso (si veda sezione 5.2), il valore medio e’
µx(t) = E{x(t)}, (2.2)
il valore quadratico medio (VQM, oppure MSV, Mean Square Value) e’
πx(t) = E{|x(t)|2} (2.3)
e la varianza e’
σ2x(t) = E{|x(t)− µx(t)|2}. (2.4)
Inoltre la radice della varianza viene detta la deviazione standard ed si indica con σx(t). Ora notiamo
che, nelle scritture precedenti, possiamo pensare che t sia assegnato e in questo caso x(t) e’ una variabile
aleatoria, le medie appena viste sono numeri e sono le normali medie della variabile aleatoria, che si
incontrano in calcolo delle probabilita’. Se invece pensiamo che t sia variabile, le scritture precedenti
definiscono le medie d’insieme del primo ordine del processo, che non sono numeri ma, in generale,
funzioni del tempo, visto che la variabile aleatoria cambia per ogni diverso t. Questo fatto e’ stato
evidenziato mettendo il tempo come argomento fra parentesi. Come secondo commento notiamo che
abbiamo dato le definizioni nel caso generale di un processo complesso. Nel caso di un processo reale, il
modulo quadro puo’ essere sostituito da un semplice quadrato.
Per quanto riguarda il calcolo delle medie di insieme, questo puo’ farsi utilizzando il teorema fonda-
mentale del valore atteso e cioe’ la (5.2). In particolare, supponendo che il processo sia reale e indicando
la sua densita’ di probabilita’ con px(a; t), si ricava
µx(t) = E{x(t)} =∫
apx(a; t)da (2.5)
πx(t) = E{|x(t)|2} =∫
|a|2px(a; t)da (2.6)
σ2x(t) = E{|x(t)− µx(t)|2} =∫
|a− µx(t)|2px(a; t)da. (2.7)
Nel caso in cui il processo sia a valori complessi la valutazione del valore atteso si puo’ fare in modo
del tutto simile, con la sola complicazione che l’integrale da semplice diviene doppio, visto che va fatto
16 CAPITOLO 2. SEGNALI ALEATORI
Figura 2.10: A sinistra, legame qualitativo fra densita’, valore medio, valore quadratico medio e varianza
di una variabile aleatoria. Sulla destra, reppresentazione schematica della media di un processo: e’ il
baricentro della densita’ del processo al variare del tempo.
congiuntamente sulla parte reale e sulla parte immaginaria. Per semplicita’ omettiamo le espressioni
relative.
Le espressioni precedenti permettono di calcolare le medie del primo ordine a partire dalla densita’
del primo ordine del processo ma questo non e’ l’unico modo di ricavarle. Come vedremo, in molti
casi le medie possono essere ricavate per altre vie, sfruttando le proprieta’ del valore atteso e il teorema
fondamentale. Per concludere notiamo che l’estensione delle definizioni appena date e delle considerazioni
appena fatte al caso di processi tempo discreti e’ immediata. E’ sufficente sostituire la variabile t con un
indice n.
Interpretazione e proprieta’. Il significato delle medie del primo ordine di un processo e’ analogo
a quello delle medie di una normale variabilie aleatoria, si veda figura 2.10. La differenza e’ che danno
informazioni sul valore del processo al tempo t, visto che sono calcolate sulla variabilie aleatoria estratta
dal processo in un istante t. In particolare il valore medio rappresenta il valore attorno al quale, nell’istante
t, si concentrano i valori di x(t). Il valore quadratico medio indica di quanto il quadrato di x(t) si
distacca dallo zero e quindi e’ una misura della entita’ del processo nell’istante t. La varianza e’ la media
del quadrato della distanza di x(t) dal suo valore medio e quindi e’ ancora una misura della entita’ del
processo. La radice della varianza, e cioe’ deviazione standard, indica di quanto l’ampiezza del processo, in
un istante t, si distacca dal valore medio nello stesso istante e quindi e’ una terza misura di entita’. Infine,
notiamo che le tre medie che abbiamo introdotto non sono indipendenti l’una dall’altra. In particolare,
dalla (5.22), si ottiene
σ2x(t) = πx(t)− |µx(t)|2 (2.8)
da cui segue che se la media e’ zero, varianza e MSV sono uguali. L’equazione si estende al caso discreto
semplicemente sostituendo il tempo t con un indice n.
Esempio 10 Consideriamo il processo x(t) = Acos(2πft) dove A e’ una variabile aleatoria unifome in
[0, 1]. Per il valore medio abbiamo
µx(t) = E{x(t)} = E{Acos(2πft)} = E{A}cos(2πft) =1
2cos(2πft),
dove abbiamo usato le proprieta’ del valore atteso e il valore medio di una variabile a densita’ uniforme
riportati in appendice. Per il valore quadratico medio abbiamo
πx(t) = E{x2(t)} = E{A2cos2(2πft)} = E{A2}cos2(2πft) =1
3cos2(2πft),
2.3. MEDIE D’INSIEME DEL PRIMO ORDINE 17
Figura 2.11: Grafico dell densita’ uniforme nell’intervallo [−π, π].
dove abbiamo usato le proprieta’ del valore atteso e il valore quadratico medio di una variabile a densita’
uniforme riportati in appendice. Per la varianza, usando la (2.8), abbiamo
σ2x(t) = πx(t) + µ2x(t) =
1
12cos2(2πft).
�
Esempio 11 Processo iid. Consideriamo la sequenza iid ottenuta facendo girare un puntatore infinite
volte. La generica variabile estratta ha densita’ uniforme in [−1/2, 1/2]. Quindi, usando i risultati diappendice, abbiamo
µx[n] = 0 πx[n] =1
12σ2x[n] =
1
12
Si noti che le medie del primo ordine di questo processo non dipendono dal tempo. �
Esempio 12 Processo armonico. Consideriamo il processo armonico x(t) = cos(2πt + φ) in cui φ e’
una variabilie aleatoria con distribuzione uniforme nell’intervallo [−π, π] e quindi
pφ(a) =1
2πrect
( a
2π
)
,
come mostrato in figura 2.11. Usando la (5.2) possiamo scrivere
µx(t) = E{x(t)} = E{cos(2πt+ φ)} =∫
cos(2πt+ a)pφ(a)da.
L’ultimo integrale si calcola facilmente sostituendo pφ(a) con la sua espressione e risulta
µx(t) =1
2π
∫ π
−π
cos(2πt+ a)da = 0
dove l’ultima uguaglianza si ottiene notando che nell’integrale e’ presente una funzione sinusoidale
integrata esattamente su un periodo. In modo simile usando la (5.2) possiamo scrivere
πx(t) = E{|x(t)|2} = E{cos2(2πt+ φ)} =∫
cos2(2πt+ a)pφ(a)da.
L”ultimo integrale si calcola facilmente sostituendo pφ(a) con la sua espressione ed usando poi la (5.28).
Risulta
πx(t) =1
2π
∫ π
−π
cos2(2πt+ a)da =1
2π
∫ π
−π
[1
2+
1
2cos(4πt+ 2a)]da =
=1
4π
∫ π
−π
da+1
4π
∫ π
−π
cos(4πt+ 2a)da =1
2
dove abbiamo usato il fatto che l’ultimo integrale si annulla visto che e’ una funzione sinusoidale integrata
esattamente su due periodi. La varianza sara’ uguale al VQM, visto che la media e’ zero. Si noti che le
medie del processo armonico non dipendono dal tempo. �
18 CAPITOLO 2. SEGNALI ALEATORI
Figura 2.12: Realizzazioni di due processi con differenti velocita’ di variazione e stesse medie del primo
ordine.
Misura delle medie di insieme. Esattamente come accade per la densita’ di probabilita’, nei casi in
cui il processo e’ un modello per un fenomeno fisico, anche se non si dispone di una espressione analitica
che permetta il calcolo delle sue medie d’insieme e’ comunque possibile ricavarle tramite una misura.
Consideriamo per esempio il valore medio. Supponendo di disporre di n sorgenti aleatorie che producono
altrettante realizzazioni del processo, che indichiamo con x(i)(t) per i = 1, ..., n, una stima del valore
medio del processo, indicata con µ̂(t) e’ data da [2]
µ̂(t) =1
n
n∑
i=1
x(i)(t)
e la stima risulta tanto migliore quanto maggiore e’ n.
2.4 Medie d’insieme del secondo ordine
Le medie d’insieme del primo ordine caratterizzano il valore di un processo in un certo istante t, ma non
dicono nulla sulle relazioni che esistono fra i valori del processo in istanti diversi. Per esempio in figura
2.12 abbiamo riportato alcune realizzazioni di due processi, x(t) e y(t). I due processi sono chiaramente
diversi ed in particolare il primo varia piu’ velocemente del secondo, ma hanno le stesse medie del primo
ordine. Quindi, queste medie non sono in grado di catturare questo aspetto.
La relazione fra i valori di un processo in istanti diversi puo’ essere caratterizzata introducendo le
medie d’insieme del secondo ordine del processo. In particolare, assegnati due istanti t1 e t2 ed estratte
le variabili corrispondenti x(t1) e x(t2), possiamo considerare la loro correlazione
Rx(t1, t2) = E{x(t1)x∗(t2)}. (2.9)
e la loro covarianza
Cx(t1, t2) = E{[x(t1)− µx(t1)][x(t2)− µx(t2)]∗}. (2.10)
Come per medie del primo ordine, nelle ultime scritture, possiamo pensare che t1 e t2 siano assegnati; in
questo caso le medie sono numeri e normali medie di una coppia di variabili, gia’ studiate in calcolo delle
probabilita’. Se invece pensiamo che t1 e t2 siano variabili, le scritture precedenti definiscono le medie
d’insieme del secondo ordine del processo, che non sono numeri ma, in generale, funzioni di una coppia
di variabili temporali. Questo fatto e’ stato evidenziato mettendo le variabili t1 e t2 come argomento fra
parentesi. In particolare, la prima equazione viene chiamata la funzione di autocorrelazione del processo
e la seconda la funzione di autocovarianza. Piu’ brevemente spesso si dice semplicemente correlazione e
2.4. MEDIE D’INSIEME DEL SECONDO ORDINE 19
covarianza. Notiamo anche che abbiamo dato le definizioni nel caso generale di un processo complesso.
Nel caso di un processo reale, le definizioni possono essere semplificate eliminando il coniugato.
Il calcolo delle medie di insieme del secondo ordine puo’ farsi utilizzando il teorema fondamentale
del valore atteso. In particolare, supponendo che il processo sia reale e indicando la sua densita’ di
probabilita’ del secondo ordine con px(a, b; t1, t2), dalla (5.2) si ricava
Rx(t1, t2) = E{x(t1)x∗(t2)} =∫
ab∗px(a, b; t1, t2)da db. (2.11)
Cx(t1, t2) = E{[x(t1)− µx(t1)][x(t2)− µx(t2)]∗} =
=
∫
[a− µx(t1)][b− µx(t2)]∗px(a, b; t1, t2)da db. (2.12)
Nel caso in cui il processo sia a valori complessi la valutazione del valore atteso si puo’ fare in modo
del tutto simile, con la sola complicazione che l’integrale da doppio diviene quadruplo, visto che va fatto
congiuntamente sulla parte reale e sulla parte immaginaria delle due variabili. Per semplicita’ omettiamo
le espressioni relative.
Le espressioni precedenti permettono di calcolare le medie del secondo ordine a partire dalla densita’
del secondo ordine del processo ma anche in questo caso spesso le medie possono essere ricavate per altre
vie, sfruttando le proprieta’ del valore atteso e il teorema fondamentale. Per concludere notiamo che
l’estensione delle definizioni appena date e delle considerazioni appena fatte al caso di processi tempo
discreti e’ immediata. E’ sufficente sostituire i tempi t1 e t2 con due indici n1 e n2.
Interpretazione e proprieta’. Le interpretazioni e le proprieta’ delle medie del secondo ordine di un
processo seguono immediatamente da quelle delle medie di una coppia di variabili aleatorie. Esaminiamo
il caso tempo continuo ma l’estensione al caso discreto e’ immediata, basta sostituire t con n. In primo
luogo, dalla (5.23), si ricava
Cx(t1, t2) = Rx(t1, t2)− µx(t1)µx(t2)∗, (2.13)
che mostra che correlazione e covarianza sono legate e sono uguali negli istanti in cui la media del processo
e’ nulla. Un’altra osservazione utile e’ che, a partire dalle definizioni, e’ immediato verificare le seguenti
relazioni
Rx(t, t) = πx(t) (2.14)
Cx(t, t) = σ2x(t) (2.15)
che mostrano che varianza e MSV si possono ricavare da covarianza e correlazione.
Visto che correlazione e covarianza sono legate, studiamo le proprieta’ della covarianza: quelle della
correlazone sono analoghe. Dalla discussione fatta in sezione 5.2 sappiamo che la covarianza e’ una misura
di somiglianza fra variabili aleatorie. Quindi la covarianza del processo misura la somiglianza fra i valori
del processo negli istanti t1 e t2. In particolare, la covarianza gode delle seguenti proprieta’
1) x(t1) e x(t2) statisticamente indipendenti → Cx(t1, t2) = 0.2) |Cx(t1, t2)| ≤ σx(t1)σx(t2)3) x(t2) = ax(t1) ↔ |Cx(t1, t2)| = σx(t1)σx(t2)
Come si vede la covarianza vale zero se i valori del processo sono statisticamente indipendenti. In questo
caso la conoscenza del valore del processo in t1 non da’ nessuna informazione sul valore in t2 (e viceversa):
i valori sono massimamente diversi e la covarianza e’ minima. Inoltre il modulo della covarianza e’
limitato dal prodotto delle deviazioni standard e se raggiunge questo valore per qualche coppia di istanti,
i valori del processo in quegli istanti sono proporzionali, determinsticamentre legati. Quindi, se e’ noto il
coefficiente di proporzionalita’, da uno dei due si puo’ calcolare l’altro: i valori sono massimamente simili
e la covarianza e’ massima. La covarianza puo’ essere nulla anche se i due valori non sono statisticamente
indipendenti. In questo caso i valori si dicono scorrelati. Questa e’ una condizione simile ma meno forte
20 CAPITOLO 2. SEGNALI ALEATORI
Figura 2.13: Grafico qualitativo delle funzioni di covarianza per i due processi di figura 2.12.
dell’indipendenza statistica. In particolare, due valori scorrelati sono ancora poco legati e le variabili
aleatorie scorrelate godono di alcune delle proprieta’ di quelle indipendenti.
Consideriamo di nuovo i processi mostrati in figura 2.12 e tracciamo un grafico qualitativo della
covarianza nei due casi. Visto che la covarianza e’ una funzione a due variabili, per semplicita’ tracciamo
il grafico di C(t, 0) e cioe’ il grafico della covarianza fra il valore del processo al tempo zero ed il valore ad
un generico tempo t. Il grafico e’ tracciato in figura 2.13 e mostra che la covarianza e’ molto diversa nei
due casi. Per il processo x(t), che varia velocemente, il valore in zero e il valore in t perdono raidamente
correlazione all’aumentare di t. La covarianza ha un picco in zero, dove i due valori sono identici, e poi
diminuisce rapidamente verso lo zero. Per il processo y(t), che varia lentamente, il valore in zero e in t
restano correlati molto piu’ a lungo e la covarianza rimane vicina al massimo per un ampio intervallo di
tempo. L’intervallo di tempo in cui la covarianza rimane vicina al massimo valore si chiama l’intervallo
di correlazione o di coerenza e la sua durata misura per quanto tempo i valori del processo rimangono
correlati.
Esempio 13 Consideriamo il processo x(t) = Acos(2πft) dove A e’ una variabile aleatoria unifome in
[0, 1]. Per la correlazione abbiamo
Rx(t1, t2) = E{x(t1)x(t2)} = E{Acos(2πft1)Acos(2πft2)} =
= E{A2}cos(2πft1)cos(2πft2) =1
3cos(2πft1)cos(2πft2),
dove abbiamo usato le proprieta’ del valore atteso e il valore medio di una variabile a densita’ uniforme
riportati in appendice. Per questo processo, nell’esempio 10 avevamo ricavato la media, che era
µx(t) =1
2cos(2πft).
Allora, per la covarianza, usando la (2.13) si ottiene
Cx(t1, t2) = Rx(t1, t2)− µx(t1)µx(t2) =1
3cos(2πft1)cos(2πft2)−
1
4cos(2πft1)cos(2πft2) =
=1
12cos(2πft1)cos(2πft2).
�
2.4. MEDIE D’INSIEME DEL SECONDO ORDINE 21
Esempio 14 Consideriamo la sequenza iid ottenuta facendo girare infinite volte un puntatore. Per questa
sequenza, nell’esempio 9 abbiamo ricavato la densita’ del secondo ordine px(a, b;n1, n2). Possiamo quindi
usare le (2.11) e (2.12) per calcolare correlazione e covarianza. Questo non e’ il metodo piu’ veloce, come
vedremo nel prossimo esempio, ma e’ istruttivo. Per la correlazione abbiamo
Rx[n1, n2] =
∫
a b px(a, b;n1, n2) da db =
=
∫
a b {(1− δ[n1 − n2]) rect(a)rect(b) + δ[n1 − n2] rect(a) δ(a− b)} da db
dove nell’ultimo passaggio abbiamo sostituito la densita’ del processo data dalla (2.1). Sviluppando
l’integrale ricaviamo
Rx[n1, n2] = (1− δ[n1−n2])[∫
a rect(a)da
] [∫
b rect(b)db
]
+ δ[n1−n2]∫
a rect(a)
[∫
b δ(a− b)db]
da.
I primi due intergrali sono tutti e due nulli, come e’ facile verificare (sono il valore medio di una variabile
uniforme), quindi
Rx[n1, n2] = δ[n1 − n2]∫
a rect(a)
[∫
b δ(a− b)db]
da.
L’integrale interno, in db, si valuta con le proprieta’ dell’impulso e vale a. Quindi si ottiene
Rx[n1, n2] = δ[n1 − n2]∫
a2 rect(a) da.
L’ultimo intergrale si valuta facilmente (e’ il VQM di una variabile uniforme) per ottenere
Rx[n1, n2] =1
12δ[n1 − n2].
Visto che la media del processo e’ zero, come abbiamo gia’ verificato, la covarianza e’ identica. Si noti
che correlazione e covarianza dipendono dalla differenza fra gli indici n1 e n2. �
Esempio 15 Consideriamo la stessa sequenza iid vista nell’esempio precedente e ricaviamo la correla-
zione per altra via. La correlazione e’ il seguente valore atteso
Rx[n1, n2] = E{x[n1]x[n2]}.
Quando n1 6= n2 le variabili sono indipendenti e a media nulla, quindi abbiamo
Rx[n1, n2] = E{x[n1]x[n2]} = E{x[n1]}E{x[n2]} = 0.
Quando n1 = n2 le variabili sono la stessa variabile, uniforme nell’intervallo [−1/2, 1/2], quindi abbiamo
Rx[n1, n2] = E{x[n1]x[n2]} = E{x2[n1]} =1
12.
Unendo i due casi con l’impulso discreto si riottiene la correlazione dell’esempio precedente. �
Misura delle medie del secondo ordine. Quando il processo e’ un modello per un fenomeno fisico
e’ possibile ricavare le medie del secondo ordine tramite una misura [2]. Consideriamo per esempio
l’autocorrelazione. Supponendo di disporre di n sorgenti aleatorie che producono altrettante realizzazioni
del processo, che indichiamo con x(i)(t) per i = 1, ..., n, una stima della autocorrelazione del processo,
indicata con R̂(t1, t2) e’ data da
R̂(t1, t2) =1
n
n∑
i=1
x(i)(t1)x(i)(t2)
∗
e la stima risulta tanto migliore quanto maggiore e’ n.
22 CAPITOLO 2. SEGNALI ALEATORI
2.5 Densita’ e medie congiunte
In alcune applicazioni e’ necessario introdurre e analizzare piu’ di un processo contemporaneamente. Per
cominciare, consideriamo il caso semplice in cui sono presenti due processi, x(t) e y(t). Per caratterizzare
statisticamente la coppia di processi, possiamo considerare una coppia di variabili aleatorie, x(tx) e y(ty),
ottenute estraendo il valore del primo processo nell’istante tx e il valore del secondo processo nell’istante
ty. In questo modo resta definita la densita’ congiunta delle due variabili, che si scrive
pxy(a, b; tx, ty).
La scrittura qui sopra, se tx e ty sono pensati come valori assegnati, definisce la densita’ congiunta della
coppia di variabuli aleatorie estratte. Ma cambiando punto di vista e pensando tx e ty come variabili,
definisce la densita’ congiunta della coppia di processi, che risulta essere una funzione di quattro variabili e
che costituisce il primo livello di descrizione statistica della coppia di processi. Naturalmente, e’ possibile
considerare densita’ di ordine superiore, estraendo un numero maggiore di variabili, ma di solito non e’
necessario ne’ pratico nelle applicazioni. Inoltre, l’approccio si estende in modo ovvio per caratterizzare
statisticamente piu’ di due processi, estraendo una variabile aleatoria da ogni processo di interesse.
Oltre che la densita’ di probabilita’ congiunta, e’ possibile considerare anche medie d’insieme con-
giunte, che coinvolgono variabili aleatorie estratte da entrambi i processi. Per esempio si definisce la
cross-correlazione (o intercorrelazione) come
Rx,y(t1, t2) = E{x(t1)y∗(t2)}
e la la cross-covarianza (o intercovarianza) come
Cx,y(t1, t2) = E{[x(t1)− µx(t1)][y(t2)− µy(t2)]∗}.
L’interpretazione ed il significato di queste medie d’insieme sono analoghi a quelli gia’ visti per il caso
della autocorrelazione e della autocovarianza ed in particolare sono entrambi una misura di somiglianza
fra le due variabili aleatorie coinvolte nella loro definizione.
Per brevita’ rinunciamo ad una trattazione piu’ approfondita di questi argomenti per la quale il lettore
interessato puo’ consultare testi specifici, per esempio [3]. Notiamo pero’ che un caso che spesso ricorre
nelle applicazioni e’ quello in cui i processi risultano statisticamente indipendenti, perche’ generati da
apparati o fenomeni distinti. In questo caso l’analisi si semplifica e le densita’ e le medie congiunte si
ottengono da quelle marginali. Per esempio, se i processi sono indipendenti, per la densita’ congiunta
risulta
pxy(a, b; tx, ty) = px(a; tx)py(b; ty).
Inoltre, come e’ facile verificare valutando le medie, la covarianza e’ nulla mentre la correlazione si riduce
al prodotto delle medie. Infatti
Rx,y(t1, t2) = E{x(t1)}E{y∗(t2)} = µx(t1)µ∗y(t2).
2.6 Operazioni sui processi
Sui processi e’ possibile definire tutte le operazioni che vengono applicate ai segnali deterministici. Il
risultato e’, in generale, un nuovo processo. La definizione delle operazioni e’ intuitiva e una descrizione
generale dell’approccio e’ la seguente. Supponiamo di avere uno o piu’ processi ed una operazione che
opera sui segnali deterministici. Possiamo applicare questa operazione ad una realizzazione dei processi
ed ottenere un altro segnale deterministico, che viene riguardato come una realizzazione del processo
risultato. Vediamo alcuni casi di interesse.
2.6. OPERAZIONI SUI PROCESSI 23
Figura 2.14: Passaggio di un processo attraverso un sistema. Ogni realizzazione del processo di ingresso
attraversa il sistema e produce una realizazione del processo di uscita.
Somma di processi. Supponiamo di avere due processi x(t) e y(t) e di voler definre la loro somma
z(t) = x(t) + y(t).
Per ogni assegnato valore della variabile di insieme ω, la realizzazione del processo x e’ un segnale
deterministico x(t, ω) e quella del processo y un segnale deterministico y(t, ω). Sommando questi due
segnali si ottiene
z(t, ω) = x(t, ω) + y(t, ω)
che e’ la realizzazione del processo risultato per l’assegnato valore di ω. Al variare di ω sui possibili
risultati del fenomeno aleatorio, l’espressione precedente definisce il processo risultato z(t).
Passaggio attraverso un sistema. Consideriamo un processo x(t) ed un sistema Γ. Facendo passare
una realizzazione del processo, sia x(t, ω) attraverso il sistema si ottiene un segnale di uscita y(t, ω), come
illustrato in figura 2.14. Al variare di ω resta definito il processo
y(t) = Γ{x(t)}
che viene detto il processo di uscita. Si noti che questo esempio comprende, come casi particolari, i
sistemi LTI ed quindi la traslazione e la scalatura di un processo.
Esempio 16 Consideriamo un processo dato da
x(t) = A[cos(2πt) + cos(2π3t)]
dove A e’ una variabile aleatoria uniforme in [0, 1]. Supponiamo che il processo attraversi un sistema LTI
con risposta in frequenza
H(f) = rect(f/4).
Per ricavare una espressione per il processo di uscita y(t), consideriamo una realizzazione del processo di
ingresso, che si scrive come sopra ma pensando che A sia un numero assegnato, e calcoliamo l’uscita corri-
spondente. Per il calcolo lavoriamo in frequenza e ricaviamo la trasformata di Fourier (FT) dell’ingresso,
che e’ la somma di quattro impulsi:
X(f) =A
2[δ(f + 1) + δ(f − 1) + δ(f + 3) + δ(f − 3)]
La trasformata dell’uscita si ottiene come Y (f) = X(f)H(f). Il prodotto e’ mostrato in figura 2.15 ed e’
Y (f) =A
2[δ(f + 1) + δ(f − 1)].
24 CAPITOLO 2. SEGNALI ALEATORI
Figura 2.15: Trasformate dei segnali e risposta in frequenza del filtro dell’esempio 16.
Figura 2.16: Campionamento di un processo. Ogni realizzazione del processo viene campionata e produce
una realizazione del processo tempo discreto di uscita.
Antitrasformando, si ottiene
y(t) = Acos(2πt).
Nell’espressione precedente, A e’ un valore assegnato e y(t) una realizzazione del processo di uscita. Ma
cambiando punto di vista e considerando di nuovo A una variabile aleatoria l’espressione precedente
fornisce il processo di uscita. �
In linea di principio, le densita’ e le medie di insieme del processo risultato si possono calcolare a partire
dalle densita’ e medie dei processi operandi. In pratica, questo e’ effettivamente possibile solo in casi
molto semplici. Per brevita’, non sviluppiamo questo punto in modo organico. Ci limitiamo a studiare
alcuni casi importanti. Uno e’ riportato qui sotto. Altri verranno analizzati nei capitoli successivi.
Campionamento. Un campionatore a passo T e frequenza F = 1/T e’ un particolare sistema, in cui
entra un processo tempo continuo x(t) e da cui esce un processo tempo discrto x[n]. Le realizzazioni
dell’uscita si ottengono campionando le realizzazioni dell’ingresso, come mostrato in figura 2.16. In questo
caso, le densita’ e le medie dell’uscita si ottengono immediatamente dalle densita’ e medie dell’ingresso.
Infatti, consieriamo una variabile aleatoria estratta all’indice n dal processo di uscita, x[n]. Questa e’ la
stessa variabile che si estrae dal processo di ingresso all’istante t = nT e cioe’ x[n] = x(nT ). Allora, per
2.6. OPERAZIONI SUI PROCESSI 25
esempio, la densita’ del primo ordine del processo di uscita (indicata con le parentesi quadre) sara’
p[a;n] = p(a;nT )
e cioe’ si ottiene campionando la densita’ del processo di ingresso (indicata con le parentesi tonde) sulla
variabile temporale. Analogamente, per il valore medio del processo avremo
µx[n] = E{x[n]} = E{x(nT )} = µx(nT ),
e cioe’, ancora, che si ottiene campionando il vaore medio del processo di ingresso. Gli stessi risultati
si ottengono per le altre medie e si estendono immediatamente anche alle densita’ e medie di ordini
superiori.
26 CAPITOLO 2. SEGNALI ALEATORI
Capitolo 3
Processi stazionari
Il concetto di processo aleatorio introdotto nel capitolo precedente e’ un modello adatto per molti feno-
meni di interesse, ma e’ anche troppo generale per i nostri scopi ed e’ complicato da un punto di vista
matematico. Fortunatamente, molti dei segnali di interesse nelle applicazioni possono essere rappresen-
tati con un modello semplificato, quello di processo stazionario. In questi processi, le caratteristiche
statistiche di interesse non cambiano se tutte le realizzazioni vengono traslate di un certo tempo. I pro-
cessi stazionari sono piu’ semplici da trattare matematicamente. In particolare, come vedremo in questo
capitolo, per questi processi esistono strumenti analitici sostanzialmente identici a quelli esistenti per i
segnali di potenza. Grazie a questo fatto, l’analisi dei processi stazionari si sviluppa in modo molto simile
a quella dei segnali deterministici.
Come nel capitolo precedente ci concentriamo sui segnali tempo continui limitandoci a considerare i
segnali tempo discreti negli esempi e nei casi in cui l’ estensione dei concetti ai segnali tempo discreti non
sia immediata.
3.1 Funzioni invarianti alla traslazione
Visto che ci servira’ nel corso del capitolo, diamo la seguente definizione
Definizione 1 Una funzione f di n variabili, f(t1, t2, ..., tn), si dice invariante alla traslazione se risulta
f(t1, t2, ..., tn) = f(t1 + T, t2 + T, ..., tn + T ) ∀t1, t2, ..., tn, T. (3.1)
�
A parole, il valore della funzione non cambia se a tutti i suoi argomenti viene aggiunta una stessa quantita’
ovvero, pensando che le variabili siano temporali, se tutti vengono traslati della stessa quantita’ tempo.
Esaminiamo una proprieta’ delle funzioni invarianti.
Una funzione f , di n variabili e invariante alla traslazione puo’ essere specificata tramite una funzione
f̄ di n− 1 variabili. Infatti, usando la definizione con T = −tn otteniamo
f(t1, t2, ..., tn) = f(t1 − tn, t2 − tn, ..., 0).
Allora, possiamo definire
f̄(t1, t2, ..., tn−1) = f(t1, t2, ..., tn−1, 0) (3.2)
che e’ una funzione di n− 1 variabili, e dalle relazioni precedenti si ricava
f(t1, t2, ..., tn) = f̄(t1 − tn, t2 − tn, ..., tn−1 − tn), (3.3)
27
28 CAPITOLO 3. PROCESSI STAZIONARI
che mostra che f si puo’ ottenere dalla f̄ . Visto che ci serviranno fra poco, specializziamo la proprieta’
ai casi particolari di funzioni ad una e due variabili.
Consideriamo una funzione f(t), di una variabile, e supponiamo che sia invariante ad una traslazione.
Dalla definizione segue che
f(t) = f(t+ T ) ∀t, T
e visto che l’equazione precedente deve essere verificata per qualsiasi T , usando T = −t ricaviamo
f(t) = f(0) = f̄
ovvero che la funzione f(t) e’ una costante, cioe’ una funzione di 0 variabli, ed e’ pari al valore che assume
nell’origine.
Consideriamo ora una funzione f(t1, t2), di due variabili, e supponiamo che sia invariante ad una
traslazione. Dalla definizione segue che
f(t1, t2) = f(t1 + T, t2 + T ) ∀t1, t2, T
e visto che l’equazione precedente deve essere verificata per qualsiasi T , usando T = −t2 ricaviamo
f(t1, t2) = f(t1 − t2, 0).
Allora, introducendo
f̄(t) = f(t, 0). (3.4)
dalle ultime due equazioni ricaviamo che
f(t1, t2) = f̄(t1 − t2).
L’ultima espressione mostra che la f non dipende dai suoi argomenti separatamente, ma solo dalla loro
differenza. E’ utile notare che, di conseguenza, nella espressione analitica della f gli argomenti compaiono
sempre sottratti, cioe saranno sempre nella forma (t1− t2). Inoltre, si noti che, visto che la f e’ invariantealla traslazione, la funzione f̄ si puo’ definire, piu’ in generale, cosi’
f̄(t) = f(τ + t, τ). (3.5)
dove τ e’ un numero qualsiasi.
La definizione di funzione invariante alla traslazione si estende senza difficolta’ al caso tempo discreto,
sotituendo t con n e imponendo che la traslazione sia un numero intero. Anche le proprieta’ sono le
stesse.
3.2 Processi stazionari in senso stretto
Definizione 2 Un processo x(t) si dice Stazionario in Senso Stretto (SSS, Strict Sense Stationary) se le
sue densita’ di probabilita’ sono invarianti ad una traslazione delle variabili temporali, ovvero se verificano,
per qualsiasi n, la seguente condizione
p(a1, a2, ..., an; t1, t2, ..., tn) = p(a1, a2, ..., an; t1 + T, t2 + T, ..., tn + T ) ∀t1, t2, ..., tn, T.
Se la condizione e’ verificata fino ad un certo valore di n e non oltre, il processo si dice stazionario fino
all’ordine n. �
A parole, la definizione precedente richiede che le densita’ del processo non cambino se si traslano gli
istanti di estrazione delle variabili tutti della stessa quantita’.
3.2. PROCESSI STAZIONARI IN SENSO STRETTO 29
Sulla base delle proprieta’ delle funzioni invarianti alla traslazione viste nella sezione precedente, se il
processo e’ SSS la densita’ del primo ordine, px(a; t), non dipende dalla variabile temporale. In particolare,
si puo’ definire una funzione densita’ ad una sola variabile, data da
p̄x(a) = px(a; 0)
e scrivere
px(a; t) = p̄x(a). (3.6)
Inoltre, la densita’ del secondo ordine, px(a, b; t1, t2), dipende solo dalla differenza delle variabili temporali.
Usando la (3.2) si puo’ definire la seguente densita’
p̄x(a, b; t) = px(a, b; t, 0)
e poi esprimere la densita’ del processo tramite la (3.3) come
px(a, b; t1, t2) = p̄x(a, b; t1 − t2). (3.7)
Analogamente, tutte le densita’ di ordine superiore si semplificano e possono essere espresse con una
variabile temporale in meno. Infine, usando la (3.6) nelle (2.5),(2.6) e (2.7) si ricava immediatamente che
le medie di insieme del primo ordine sono costanti, non dipendono dal tempo. E usando la (3.7) nelle
(2.11) e (2.12) si verifica che le medie di insieme del secondo ordine dipendono solo dalla differenza delle
variabili temporali.
Nel caso tempo discreto, la definizione di processo SSS e’ identica, sostituendo t con n. Anche in
questo caso le densita’ e le medie di insieme si semplificano come gia’ visto per il caso tempo continuo.
Esempio 17 Processo iid. Consideriamo il processo iid ottenuto facendo girare infinite volte un pun-
tatore. Per questo processo abbiamo ricavato la densita’ del primo ordine nell’esempio 8 e quella del
secondo nell’esempio 9. In particolare abbiamo trovato
px(a;n) = rect(a).
p(a, b;n1, n2) = (1− δ[n1 − n2]) rect(a)rect(b) + δ[n1 − n2] rect(a) δ(a− b).E’ facile controllare che le densita’ precedenti sono invarianti ad una traslazione degli indici temporali.
Quindi il processo e’ SSS al II ordine. Il processo e’ in realta’ SSS a qualsiasi ordine, ma non lo dimostriamo
per brevita’. �
Esempio 18 Consideriamo il processo x(t) = A cos2(2πt) dove A e’ una variabile aleatoria con densita’
uniforme nell’intervallo [−1/2, 1/2]. Per questo processo, nell’esempio 5, abbiamo ricavato la densita’ delprimo ordine, che era
px(a; t) =1
cos2(2πt)rect
(
a
cos2(2πt)
)
.
Visto che la densita’ dipende dal tempo e non e’ invariante alla traslazione, il processo non e’ SSS,
nemmeno al primo ordine. �
Come abbiamo accennato, quando un processo e’ SSS, densita’ e medie si semplificano. Inoltre, come
vedremo, per questi processi e’ possibile introdurre ulteriori strumenti matematici, che agevolano l’analisi
e la rendono simile a quella per i segnali deterministici di potenza. Purtroppo, la stazionarieta’ stretta
e’ una condizione forte, che non sempre e’ verificata dai processi che si incontrano in pratica. Inoltre,
per verificare analiticamente che un processo sia SSS, e’ necessario avere un’espressione per le densita’
di probabilita’, che di solito non e’ disponibile. Fortunatamente, molte delle semplificazioni che si hanno
per i processi SSS, si hanno anche per una classe piu’ ampia di processi, che soddisfa condizioni di
stazionarieta’ meno forti. Questa seconda classe di processi stazionari viene introdotta nella prossima
sezione.
30 CAPITOLO 3. PROCESSI STAZIONARI
3.3 Processi stazionari in senso lato
Definizione 3 Un processo x(t) si dice Stazionario in Senso Lato (WSS, Wide Sense Stationary) se il
suo valore medio e la sua funzione di autocorrelazione sono invarianti alla traslazione. �
La definizione precedente richiede che media e correlazione del processo non cambino se si traslano gli
istanti di estrazione delle variabili tutti della stessa quantita’. Sulla base delle proprieta’ delle funzioni
invarianti alla traslazione che abbiamo discusso in sezione 3.1, possiamo equivalentemente dire che un
processo e’ WSS se sono verificate le seguenti due condizioni:
C1) La media e’ una costante: µx(t) = µx,
C2) L’autocorrelazione dipende dalla differenza degli argomenti: Rx(t1, t2) = R̄x(t1 − t2),
dove, nell’ultima condizione, abbiamo usato la (3.4) per definire la funzione
R̄x(t) = Rx(t, 0). (3.8)
Quindi, per un processo WSS, possiamo considerare due funzioni di autocorrelazione: la Rx(t1, t2), a due
variabili, e la R̄x(t), a una variabile. Le due autocorrelazioni sono equivalenti, nel senso che da una delle
due si puo’ ricavare l’altra, come si vede dalle formule qui sopra. Notiamo anche che, visto che Rx e’
invariante, R̄x si puo’ anche definire come
R̄x(t) = Rx(τ + t, τ),
e visto che Rx(t1, t2) = E{x(t1)x∗(t2)} risulta
R̄x(t) = E{x(τ + t)x∗(τ)}. (3.9)
L’ultima equazione fornisce una definizione alternativa di R̄x, come valore atteso. Inoltre mostra che, per
un processo WSS, il valore atteso considerato qui sopra non dipende da τ , ma solo da t, che e’ un’altra
maniera di dire che la correlazione e’ invariante.
Anche se le due funzioni Rx(t1, t2) e R̄x(t) sono equivalenti, quella a una variabile e’ piu’ facile
da trattare analiticamente. Quindi sara’ quella che useremo di preferenza d’ora in poi. Inoltre, per
semplificare la notazione, d’ora in poi lasceremo cadere la barra ed indicheremo tutte e due le funzioni
con Rx: si potranno ancora distinguere osservando il numero di variabili.
Come abbiamo visto nella sezione precedente, se un processo e’ SSS al secondo ordine o piu’, le medie
del primo e del secondo ordine verificano le due consizioni scritte qui sopra e quindi il processo e’ anche
WSS. Al contrario, un processo WSS non e’ necessariamente SSS, nemmeno al secondo ordine.
Tutte le definizioni, le proprieta’ ed i concetti che abbiamo introdotto in questa sezione si estendono
in modo ovvio al caso tempo discreto. Basta sostituire t con n.
Esempio 19 Processo armonico. Consideriamo il processo armonico x(t) = cos(2πt+ φ) in cui φ e’
una variabilie aleatoria con distribuzione uniforme nell’intervallo [−π, π] e quindi
pφ(a) =1
2πrect
( a
2π
)
.
Per questo processo abbiamo calcolato la media, nell’esempio 12, ed abbiamo trovato che non dipendeva
dal tempo ed era nulla. Per verificare che il processo sia WSS dobbiamo studiare la correlazione. Abbiamo
Rx(t1, t2) = E{x(t1)x(t2)} = E{cos(2πt1 + φ)cos(2πt2 + φ)} =
= E
{
1
2cos[2π(t1 + t2) + 2φ] +
1
2cos[2π(t1 − t2)]
}
3.3. PROCESSI STAZIONARI IN SENSO LATO 31
dove nell’ultimo passaggio abbiamo usato la (5.32). Per proseguire usiamo la (5.10) e scriviamo
Rx(t1, t2) =1
2E {cos[2π(t1 + t2) + 2φ]}+
1
2E {cos[2π(t1 − t2)]} =
=1
2E {cos[2π(t1 + t2) + 2φ]}+
1
2cos[2π(t1 − t2)]
dove l’ultimo passaggio vale perche’ l’argomento del secondo valore atteso non e’ aleatorio, ma determi-
nistico. A questo punto, usando il teorema fondamentale del valore atteso, abbiamo
Rx(t1, t2) =1
2
∫
cos[2π(t1 + t2) + 2a]pφ(a)da+1
2cos[2π(t1 − t2)] =
=1
4π
∫ π
−π
cos[2π(t1 + t2) + 2a]da+1
2cos[2π(t1 − t2)] =
1
2cos[2π(t1 − t2)]
dove l’ultimo passagio segue dal fatto che l’integrale e’ nullo, essendo l’integrale di una funzione sinusoidale
su due periodi. Osservando l’ultima equazione si nota che la correlazione dipende dalla differenza degli
istanti di estrazione e quindi risulta invariante alla traslazione, come e facile verificare. Quindi il processo
armonico e’ WSS.
Visto che e’ WSS, per il processo armonico si puo’ definire una funzione di autocorrelazione ad una
sola variabile. Usando l’ultima espressione e la (3.8) si ricava
Rx(t) =1
2cos(2πt). (3.10)
La correlazione ad una sola variabile puo’ essere ricavata anche dalla definizione (3.9), come vediamo nel
prossimo esempio. �
Esempio 20 Processo armonico. Consideriamo ancora il processo armonico dell’ultimo esempio e
controlliamo la stazionarieta’ per altra via. In particolare, valutiamo direttamente il valore atteso (3.9)
e controlliamo che non dipenda da τ . I calcoli sono molto simili a quelli gia fatti. Abbiamo
E{x(τ + t)x(τ)} = E{cos[2π(τ + t) + φ]cos(2πτ + φ)} =
= E
{
1
2cos[2π(2τ + t) + 2φ] +
1
2cos(2πt)
}
dove nell’ultimo passaggio abbiamo usato la (5.32). Per proseguire usiamo la (5.10) e scriviamo
E{x(τ + t)x(τ)} = 12E {cos[2π(2τ + t) + 2φ]}+ 1
2E {cos(2πt)} =
=1
2E {cos[2π(2τ + t) + 2φ]}+ 1
2cos(2πt)
dove l’ultimo passaggio vale perche’ l’argomento del secondo valore atteso non e’ aleatorio, ma determi-
nistico. A questo punto, usando il teorema fondamentale del valore atteso, abbiamo
E{x(τ + t)x(τ)} = 12
∫
cos[2π(2τ + t) + 2a]pφ(a)da+1
2cos(2πt) =
=1
4π
∫ π
−π
cos[2π(2τ + t) + 2a]da+1
2cos(2πt) =
1
2cos(2πt)
dove l’ultimo passagio segue dal fatto che l’integrale e’ nullo, essendo l’integrale di una funzione sinusoidale
su due periodi. Osservando l’ultima equazione si nota che il valore atteso non dipende da τ e quindi la
correlazione dipende solo dalla differenza degli istanti di estrazione e risulta invariante alla traslazione.
Questa e’ una seconda maniera di verificare che il processo e’ WSS ed inoltre permette di ricavare
direttamente la correlazione ad una variabile. �
32 CAPITOLO 3. PROCESSI STAZIONARI
Esempio 21 Consideriamo il processo x(t) = Acos(2πft) dove A e’ una variabile aleatoria unifome in
[0, 1]. Il valore medio di questo processo e’ stato ricavato nell’esempio 10 ed era
µx(t) =1
2cos(2πft).
Il valore medio dipende dal tempo e non e’ invariante alla traslazione. Quindi il processo non e’ WSS.
Visto che e’ istruttivo, calcoliamo il valore atteso (3.9). Abbiamo
E{x(τ + t)x(τ)} = E{Acos[2π(τ + t)]Acos(2πτ} =
= E{A2}cos[2π(τ + t)]cos(2πτ) = 13cos[2π(τ + t)]cos(2πτ)
dove abbiamo usato le proprieta’ dei valori attesi ed il valore quadratico medio di una variabile uniforme
riportati in appendice. Come si vede, in questo caso il valore atteso dipende sia da τ che da t. Quindi
l’autocorrelazione non dipende solo dalla differenza degli istanti di estrazione e non e’ invariante alla
traslazione, confermando che il processo non e’ WSS. �
Esempio 22 Consideriamo il processo iid ottenuto facendo girare infinite volte un puntatore. Come
abbiamo visto nell’esempio 17, questo processo e’ SSS al secondo ordine e quindi sara’ anche WSS.
Ammette quindi una seconda funzione di autocorrelazione, ad una variabile. La correlazione a due
variabili e’ stata ricavata nell’esempio 14 ed era
Rx[n1, n2] =1
12δ[n1 − n2].
Dall’ultima equazione, usando la (3.8), per la correlazione ad una variabile si ricava
Rx[n] =1
12δ[n] (3.11)
La correlazione ad una variabile puo’ anche essere ricavata usando la (3.9). In particolare si puo’ valutare
il seguente valore atteso
E{x[m+ n]x[m]}
che non dipende da m perche’ il processo e’ WSS. Il calcolo e’ facile e viene lasciato come esercizio. �
3.4 Medie di insieme
Nella sezione precedente abbiamo visto che in un processo WSS la media e la correlazione si semplificano
e diventano rispettivamente una costante ed una funzione ad una variabile. In particolare, nei processi
WSS valgono, per definizione, le seguenti condizioni
C1) La media e’ una costante: µx(t) = µx.
C2) L’autocorrelazione dipende dalla differenza degli argomenti: Rx(t1, t2) = Rx(t1 − t2).
E’ facile verificare che anche le altre medie si semplificano. Infatti risulta che
C3) Il VQM e’ una costante: πx(t) = πx,
C4) La varianza e’ una costante: σ2x(t) = σ2x,
C5) La covarianza dipende dalla differenza degli argomenti: Cx(t1, t2) = Cx(t1 − t2).
La C3) si ricava usando la (2.14) e scrivendo
πx(t) = Rx(t, t) = Rx(t− t) = Rx(0), (3.12)
3.4. MEDIE DI INSIEME 33
Figura 3.1: Misura della media in un istante t1 per un processo stazionario (a sinistra) e non (a destra).
che fornisce anche un legame fra il VQM e la correlazione ad una variabile. La C5) si ricava usando la
(2.13), la C1) e la C2). Infatti
Cx(t1, t2) = Rx(t1, t2)− µx(t1)µx(t2)∗ = Rx(t1 − t2)− |µx|2 = Cx(t1 − t2)
che fornisce anche un legame fra la correlazione e la covarianza ad una variabile. Infine la C4) si ricava
usando la (2.15) e la C5). Infatti
σ2x(t) = Cx(t, t) = Cx(t− t) = Cx(0)
che fornisce anche un legame fra la varianza e la covarianza ad una variabile. Tutti i risultati si estendono
facilmente al caso tempo discreto: basta sostituire t con n.
Significato e proprieta’. Il significato delle medie di insieme di un processo WSS e’ lo stesso che queste
medie hanno nei processi in generale. E quindi, la media e’ il valore attorno a cui oscillano i valori del
processo, il VQM e la varianza misurano l’entita’ del processo e la correlazione e la covarianza misurano
la somiglianza fra i valori del processo in due istanti temporali. La differenza fondamentale con il caso
generale e’ che per un processo WSS, le medie del primo ordine sono costanti e quelle del secondo ordine
dipendono solo dalla differenza dei due istanti. Questi fatti hanno implicazioni importanti. Il fatto che
le medie del primo ordine siano costanti implica che l’entita’ del processo rimane uguale su tutto l’asse
dei tempi. Quindi, le realizzazioni non tendono a zero e sono di norma1 segnali di potenza. Un’altra
conseguenza, fondamentale, e’ che su un processo stazionario diventa piu’ semplice fare previsioni sui
valori futuri sulla base dei valori presenti o passati. Per esempio, supponiamo di effettuare una misura
del valore medio di un processo stazionario x(t) nell’istante t1, usando un certo numero di realizzazioni,
come mostrato in figura 3.1. Visto che il processo e’ stazionario, il valore cosi’ misurato fornisce la media
anche per tutti i futuri istanti di tempo. Al contrario, effettuare la misura in t1 per un processo non
stazionario y(t) non e’ di nessuna utilita’, perche non da’ nessuna indicazione sui valori che la media potra’
assumere nel futuro. Analoghe considerazioni possono essere ripetute per le altre medie di insieme, sia
del primo che del secondo ordine.
Le medie di insieme di un processo WSS godono di proprieta’ che pero’ non approfondiamo. Ci
limitiamo a notare che, come e’ facile verificare, l’autocorrelazione e la covarianza godono di simmetria
Hermitiana e cioe’
Rx(−t) = R∗x(t) Cx(−t) = C∗x(t).1Da un punto di vista matematico, e’ possibile costruire processi stazionari che contengono realizzazioni che sono segnali
di energia. Ma questa situazione non e’ di interesse pratico. Inoltre gli eventuali segnali di energia possono essere assimilati
ad un segnale nullo ed il processo puo’ essere ridefinito senza comprenderli.
34 CAPITOLO 3. PROCESSI STAZIONARI
Figura 3.2: Andamento tipico della autocorrelazione di un processo WSS a media nulla e senza componenti
periodici.
Inoltre, per motivi che saranno chiari fra poco, nei processi stazionari, il VQM si chiama anche la potenza
del processo e si indica con Px. Usando questa nuova simbologia, la (3.12) si riscrive cosi’
Px = Rx(0) (3.13)
e, a parole, afferma che la potenza del processo e’ pari all’autocorrelazione valutata in zero.
Osservando la (3.9) si vede che la correlazione Rx(t) e’ una misura della somiglianza fra due valori del
processo presi a distanza t. Sulla base delle proprieta’ della covarianza viste in sezione 2.4 e del legame
fra correlazione e covarianza, per la correlazione risulta
|Rx(t)| ≤ Px = Rx(0)
e quindi che la correlazione ha un massimo in zero. Inoltre, di solito i valori estratti dal processo sono
sempre meno correlati all’aumentare della loro distanza. Quindi la correlazione tende a diminuire e, per
un processo a media nulla, tende a zero ed ha tipicamente la forma riportata in figura 3.2. Il tempo
in cui rimane vicina al valore massimo indica il tempo per il quale il valore del processo cambia poco e
si chiama il tempo di correlazione o di coerenza del processo. La forma della correlazione cambia se le
realizzazioni sono periodiche, nel qual caso la correlazione risulta anch’essa periodica. Inoltre se la media
e’ diversa da zero, la correlazione non tende a zero ma al quadrato della media.
Relazione con le medie temporali. Le realizzazioni del processo sono segnali deterministici. Su
questi segnali sono definite alcune medie temporali che hanno significato analogo alle medie di insieme
definite sul processo. Vogliamo approfondire il legame fra le medie temporali delle realizzazioni e le
medie di insieme del processo. Cominciamo col riscrivere le definizioni di entrambi perche’ e’ utile per
confrontarle. Per tenere queste quantita’ distinte, usiamo il grassetto per indicare le medie temporali.
Inoltre, nelle definizioni per le medie temporali, usiamo l’operatore di media temporale introdotto in [1]
sezione 3.6. Con queste notazioni, abbiamo la seguente tabella
Media temporale Media d’insieme
Media Mx = T{x(t)} µx = E{x(t)}Potenza Px = T{|x(t)|2} Px = E{|x(t)|2}Correlazione Rx(t) = T{x(τ + t)x∗(τ)} Rx(t) = E{x(τ + t)x∗(τ)}
La tabella mostra che esiste una somiglianza formale fra le medie di insieme e quelle temporali. Ci
chiediamo se esista anche un legame quantitativo fra i due tipi di medie. Per approfondire questo punto
concentriamoci, per esempio, sulla potenza. Nelle definizioni precedenti, quando la potenza viene valutata
come media temporale, x(t) rappresenta un segnale deterministico, mentre quando viene valutata come
media di insieme, x(t) rappresenta un processo. In tutti e due i casi la potenza e’ un numero, un valore
3.5. SPETTRO E BANDA 35
Figura 3.3: Esempi delle realizzazioni di un processo, per i vari valori di ω, il risultato del fenomeno
aleatorio sottostante. Su ognuna di queste si puo’ calcolare la potenza P = P (ω), che risulta una
variabile aleatoria.
deterministico. D’altra parte, dato un processo, possiamo pensare di valutare la potenza come media
temporale su ogni realizzazione, come mostrato in figura 3.3. In questo modo Px diventa una variabile
aleatoria, di cui e’ possibile valutare il valore atteso E{Px}. Sviluppando il calcolo2 si ottiene
E{Px} = Px.
Ripetendo il ragionamento per le altre medie, con passaggi del tutto simili si ottiene anche
E{Mx} = µx.
E{Rx(t)} = Rx(t). (3.14)Le equazione precedenti, a parole, dicono che, per i processi stazionari, le medie di insieme sono il valore
atteso delle medie temporali delle realizzazioni del processo. Questo risultato stabilisce precisamente il
legame fra i due tipi di medie e permette di pensare le medie di insieme in modo piu’ intuitivo. Inoltre
sara’ utile per lo sviluppo della teoria.
Tutte le definizioni, le proprieta’ ed i concetti che abbiamo introdotto in questa sezione si estendono
in modo ovvio al caso tempo discreto. Basta sostituire t con n.
3.5 Spettro e banda
Per un processo WSS x(t), si definisce lo spettro di densita’ di potenza, indicato con Px(f), come la FT
della funzione di autocorrelazione (a una variabile) e cioe’
Px(f) = FT{Rx(t)}.
Visto che la correlazione gode di simmetria Hermitiana, lo spettro risulta una funzione reale delle fre-
quenza. Inoltre, ricordando che l’integrale della trasformata e’ pari al valore della funzione nell’origine
2Per valutare il valore atteso, ricordiamo la definizione esplicita di potenza, che e’ la seguente:
Px = limT→+∞
1
T
∫ T/2
−T/2|x(t)|2dt.
A questo punto, valutiamo il valore atteso. Abbiamo
E{Px} = E
{
limT→+∞
1
T
∫ T/2
−T/2|x(t)|2dt
}
= limT→+∞
1
T
∫ T/2
−T/2E
{
|x(t)|2}
dt =
= limT→+∞
1
T
∫ T/2
−T/2Pxdt = Px lim
T→+∞
1
T
∫ T/2
−T/2dt = Px.
36 CAPITOLO 3. PROCESSI STAZIONARI
(proprieta’ dei valori nell’origine della FT), dalla (3.13) e dall’ultima relazione si ricava
Px =
∫
Px(f)df,
e cioe’, a parole, che l’integrale dello spettro di densita’ di potenza e’ pari alla potenza (VQM) del processo.
Si noti che questa e’ esattamente la stessa relazione che esiste nel caso di un segnale deterministico di
potenza e giustifica il nome dato allo spettro di densita’ di potenza. Piu’ in generale, come vedremo, lo
spettro di un processo WSS ha la stessa definizione e proprieta’ simili a quello di un segnale di potenza.
Per proseguire, si noti che, trasformando la (3.14) e scambiando il valore atteso con la trasformata, si
ricava
E{Px(f)} = Px(f) (3.15)
dove Px(f) e’ lo spettro di densita’ di potenza della generica realizzazione. La formula precedente mostra
che lo spettro del processo e’ la media dello spettro delle singole realizazioni, come succedeva per le altre
medie. Inoltre, visto che gli spettri delle realizzazioni sono non negativi, lo spettro del processo, che e’ il
valore atteso di quantita’ non negative, risulta non negativo anch’esso.
Banda. A partire dallo spettro, e’ possibile definire la banda di un processo stazionario. Possiamo
considerare diverse definizioni, che tornano utili in casi diversi. Le piu’ stringente e’ la seguente
Definizione 4 Dato un processo stazionario, la sua banda e’ l’insieme dell’asse delle frquenze su cui lo
spettro di densita’ di potenza e’ maggiore di zero. �
La definizione precedente puo’ essere inadeguata per certe applicazioni o quando lo spettro e’ composto
da impulsi. In questi casi puo’ essere utile sostituire la banda con l’intervallo di banda:
Definizione 5 Dato un processo stazionario, il suo intervallo di banda e’ il piu’ piccolo intervallo
simmetrico dell’asse delle frequenze che contiene le frequenze su cui lo spettro e’ maggiore di zero. �
Le due definizioni precedenti si dicono in senso stretto, perche’ richiedono che lo spettro ad una certa
frequenza sia nullo per escludere la frequenza dalla banda. Ma in pratica puo’ essere sufficiente assumere
che lo spettro sia piccolo a sufficenza per escludere le corrispondenti frequenze dalla banda. Quindi
possiamo dare queste altre due definizioni, che definiscono la banda in senso pratico:
Definizione 6 Dato un processo stazionario, la sua banda e’ l’insieme dell’asse delle frquenze su cui lo
spettro di densita’ di potenza e’ non trascurabile. �
Definizione 7 Dato un processo stazionario, il suo intervallo di banda e’ il piu’ piccolo intervallo
simmetrico dell’asse delle frequenze che contiene le frequenze su cui lo spettro e’ non trascurabile. �
Chiaramente, le definizioni precedenti vanno completate specificando un criterio per ritenere lo spettro
trascurabile. Questo criterio puo’ variarare a seconda dell’applicazione che si sta’ considerando. In tutti i
casi, una volta ricavata la banda con una delle definizioni viste prima, resta definita la larghezza di banda
del processo (spesso detta, per brevita’, semplicemente banda), che e’ pari alla misura della banda.
Nella sezione precedente abbiamo visto che la durata della funzione di correlazione e’ pari al tempo
di coerenza del processo. Visto che lo spettro e’ la FT della correlazione e visto che, come noto dalla
teoria della FT, banda e durata sono inversamente legate, risulta che, qualitativamente, i processi con
un tempo di correlazione breve, che quindi variano velocemente nel tempo, hanno una banda larga, come
mostrato in figura 3.4. Al contrario, come mostrato nella stessa figura, i processi che variano lentamente
e quindi hanno lunghi tempi di correlazione, risultano a banda stretta.
Relazione fra banda del processo e banda delle realizzazioni. Le realizzazioni del processo hanno
uno spettro di densita’ di potenza e quindi una banda corrispondente, che puo’ variare da realizzazione a
3.5. SPETTRO E BANDA 37
Figura 3.4: Correlazione e spettro di un processo a banda larga e basso tempo di correlazione (sopra) e
a banda stretta e alto tempo di correlazione (sotto).
realizzazione. E’ utile chiedersi se e come sono legate la banda del processo con quella delle realizzazioni.
Una risposta a questa domanda viene data qui sotto, limitatamente alla banda in senso stretto.
Assegnamo una frequenza f0 e consideriamo il valore dello spettro del processo, Px(f0), che e’ un
numero, ed il valore dello spettro della generica realizzazione, Px(f0), che e’ una variabile aleatoria.
Usando la (3.15) possiamo concludere che Px(f0) e’ il valore atteso di Px(f0). Ora notiamo che Px(f0)
e’ non negativo e che, se una variabile aleatoria non negativa ha media nulla, allora le sue determinzaioni
devono essere tutte nulle3. Possiamo quindi concludere che se Px(f0) = 0, allora Px(f0) = 0. Questo
implica che tutte le realizzazioni hanno banda (in senso stretto) minore o uguale a quella del processo.
Tempo discreto. Nel caso tempo discreto lo sviluppo si puo’ ripetere. Lo spettro viene definito come la
trasformata dell’autocorrelazione. Ma visto che nel caso tempo discreto la correlazione e’ una sequenza,
occorre usare la DTFT,
Px(f) = DTFT{Rx[n]},che risulta periodica di periodo 1, se si usa la versione normalizzata, o F se si usa la versione non
normalizzata. Usando la proprieta’ dei valori nell’origine, dallo spettro si ricava la potenza come l’integrale
normalizzato su un periodo e cioe’
Px =
∫ 1/2
−1/2
Px(f)df Px =1
F
∫ F/2
−F/2
Px(f)df
a seconda che lo spettro sia normalizzato o meno. Anche le definizioni di banda e larghezza di banda
si ripetono identiche, con la sola avvertenza di limitarsi a considerare le frequenze
Top Related