Teoria degli errori e fondamenti di statistica/C.1

Da Wikisource.
C.1 La covarianza

../C ../C.2 IncludiIntestazione 3 settembre 2022 100% Da definire

C C.2

[p. 255 modifica]


C.1 La covarianza

Per due variabili casuali ed si definisce la covarianza, che si indica con uno dei due simboli o , nel seguente modo:

.

Per provare l’equivalenza delle due forme, basta osservare che1

ricordando alcune relazioni già ricavate nel capitolo 5, e valide per variabili casuali qualunque: in particolare, anche non statisticamente indipendenti. [p. 256 modifica]

È chiaro come per variabili statisticamente indipendenti la covarianza sia nulla: infatti per esse vale la

.

Non è però vero l’inverso: consideriamo ad esempio le due variabili casuali ed , ovviamente dipendenti l’una dall’altra: la loro covarianza vale

ed è chiaramente nulla per qualunque variabile casuale con distribuzione simmetrica rispetto allo zero; quindi l’annullarsi della covarianza è condizione necessaria ma non sufficiente per l’indipendenza statistica di due variabili casuali.

Possiamo ora calcolare la varianza delle combinazioni lineari di due variabili casuali qualunque, estendendo la formula già trovata nel capitolo 5 nel caso particolare di variabili statisticamente indipendenti; partendo ancora da due variabili e con media zero per semplificare i calcoli, per la loro combinazione lineare valgono le:

ed infine

. (C.1)

Questa si estende immediatamente a variabili casuali con media qualsiasi: introducendo ancora le variabili ausiliarie

ed
[p. 257 modifica]per le quali già sappiamo che vale la

con le

e ;
basta osservare infatti che vale anche la

.


La (C.1) si può poi generalizzare, per induzione completa, ad una variabile definita come combinazione lineare di un numero qualsiasi di variabili casuali: si trova che, se

risulta

. (C.2)

Per esprimere in modo compatto la (C.2), si ricorre in genere ad una notazione che usa la cosiddetta matrice delle covarianze delle variabili ; ovverosia una matrice quadrata di ordine , in cui il generico elemento è uguale alla covarianza delle variabili casuali e :

. (C.3)

La matrice è ovviamente simmetrica (); e, in particolare, gli elementi diagonali valgono

.

Consideriamo poi le come le componenti di un vettore di dimensione (che possiamo concepire come una matrice rettangolare di righe ed una colonna); ed introduciamo la matrice trasposta di , , che è una matrice rettangolare di una riga ed colonne i cui elementi valgono

.

[p. 258 modifica]

Possiamo allora scrivere la (C.2) nella forma

(la simmetria di e quella tra ed produce, nello sviluppo delle sommatorie, il fattore 2 che moltiplica le covarianze); o anche, ricordando le regole del prodotto tra matrici,

Si può poi facilmente dimostrare il seguente teorema, che ci sarà utile più avanti:

Teorema: due differenti combinazioni lineari delle stesse variabili casuali sono sempre correlate.

Infatti, dette e le due combinazioni lineari:

abbiamo che la covarianza di e vale

e non è in genere nulla. In forma matriciale e con ovvio significato dei simboli,

.

[p. 259 modifica]

È da notare come e siano di norma sempre correlate anche se le variabili di partenza sono tutte tra loro statisticamente indipendenti: in questo caso infatti tutti i termini non diagonali della matrice delle covarianze si annullano, e risulta

. (C.4)

Note

  1. Nel seguito useremo per la varianza, per le probabilità di ottenere i vari valori o e così via, le stesse notazioni già introdotte nel capitolo 5.