<dc:title> Teoria degli errori e fondamenti di statistica </dc:title><dc:creator opt:role="aut">Maurizio Loreti</dc:creator><dc:date>2006</dc:date><dc:subject></dc:subject><dc:rights>CC BY-SA 3.0</dc:rights><dc:rights>GFDL</dc:rights><dc:relation>Indice:Teoria_degli_errori_e_fondamenti_di_statistica.djvu</dc:relation><dc:identifier>//it.wikisource.org/w/index.php?title=Teoria_degli_errori_e_fondamenti_di_statistica/C.1&oldid=-</dc:identifier><dc:revisiondatestamp>20220903090930</dc:revisiondatestamp>//it.wikisource.org/w/index.php?title=Teoria_degli_errori_e_fondamenti_di_statistica/C.1&oldid=-20220903090930
Teoria degli errori e fondamenti di statistica - C.1 La covarianza Maurizio LoretiTeoria degli errori e fondamenti di statistica.djvu
Per due variabili casuali ed si definisce la covarianza, che si indica con uno dei due simboli o , nel seguente modo:
.
Per provare l’equivalenza delle due forme, basta osservare che1
ricordando alcune relazioni già ricavate nel capitolo 5, e valide per variabili casuali qualunque: in particolare, anche non statisticamente indipendenti.
[p. 256modifica]
È chiaro come per variabili statisticamente indipendenti la covarianza sia nulla: infatti per esse vale la
.
Non è però vero l’inverso: consideriamo ad esempio le due variabili casuali ed , ovviamente dipendenti l’una dall’altra: la loro covarianza vale
ed è chiaramente nulla per qualunque variabile casuale con distribuzione simmetrica rispetto allo zero; quindi l’annullarsi della covarianza è condizione necessaria ma non sufficiente per l’indipendenza statistica di due variabili casuali.
Possiamo ora calcolare la varianza delle combinazioni lineari di due variabili casuali qualunque, estendendo la formula già trovata nel capitolo 5 nel caso particolare di variabili statisticamente indipendenti; partendo ancora da due variabili e con media zero per semplificare i calcoli, per la loro combinazione lineare
valgono le:
ed infine
.
(C.1)
Questa si estende immediatamente a variabili casuali con media qualsiasi: introducendo ancora le variabili ausiliarie
ed
[p. 257modifica]per le quali già sappiamo che vale la
con le
e
;
basta osservare infatti che vale anche la
.
La (C.1) si può poi generalizzare, per induzione completa, ad una variabile definita come combinazione lineare di un numero qualsiasi di variabili casuali: si trova che, se
risulta
.
(C.2)
Per esprimere in modo compatto la (C.2), si ricorre in genere ad una notazione che usa la cosiddetta matrice delle covarianze delle variabili ; ovverosia una matrice quadrata di ordine , in cui il generico elemento è uguale alla covarianza delle variabili casuali e :
.
(C.3)
La matrice è ovviamente simmetrica (); e, in particolare, gli elementi diagonali valgono
.
Consideriamo poi le come le componenti di un vettore di dimensione (che possiamo concepire come una matrice rettangolare di righe ed una colonna); ed introduciamo la matrice trasposta di , , che è una matrice rettangolare di una riga ed colonne i cui elementi valgono
(la simmetria di e quella tra
ed produce, nello sviluppo delle sommatorie, il fattore 2 che moltiplica le covarianze); o anche, ricordando le regole del prodotto tra matrici,
Si può poi facilmente dimostrare il seguente teorema, che ci sarà utile più avanti:
Teorema: due differenti combinazioni lineari delle stesse variabili casuali sono sempre correlate.
Infatti, dette e le due combinazioni lineari:
abbiamo che la covarianza di e vale
e non è in genere nulla. In forma matriciale e con ovvio significato dei simboli,
È da notare come e siano di norma sempre correlate anche se le variabili di partenza sono tutte tra loro statisticamente indipendenti: in questo caso infatti tutti i termini non diagonali della matrice delle covarianze si annullano, e risulta
.
(C.4)
Note
↑Nel seguito useremo per la varianza, per le probabilità di ottenere i vari valori o e così via, le stesse notazioni già introdotte nel capitolo 5.