Teoria degli errori e fondamenti di statistica/11.1

Da Wikisource.
11.1 Stime e loro caratteristiche

../11 ../11.2 IncludiIntestazione 31 agosto 2022 100% Da definire

11 11.2

[p. 167 modifica]

11.1 Stime e loro caratteristiche

Supponiamo che la densità di probabilità di una variabile casuale continua x (che possa assumere tutti i valori dell’asse reale) dipenda da un parametro , il cui valore vero ci sia ignoto; se si hanno a disposizione N determinazioni sperimentali indipendenti della grandezza x, vogliamo [p. 168 modifica]trovare una funzione che, a partire da esse, ci permetta di ricavare, nella maniera migliore possibile, un valore numerico da attribuire a : le funzioni di questo tipo si chiamano appunto stime.

Una stima è dunque una funzione di variabili casuali, e, pertanto, una variabile casuale essa stessa; potremo in conseguenza parlare del valore medio o della varianza di una particolare stima, intendendo così riferirci alle caratteristiche della popolazione dei possibili valori restituiti dalla stima stessa in corrispondenza di tutti i possibili campioni che possono essere usati per calcolarla.

Nella statistica, alle stime si possono associare svariate caratteristiche; la prima di esse (e la più importante) è la consistenza. Una stima si dice consistente quando converge (probabilisticamente) al valore vero del parametro, ossia quando

.

Ad esempio, il teorema di Čebyšef si può enunciare sinteticamente affermando che “il valore medio di un campione è una stima consistente del valore medio della popolazione”.

Una seconda caratteristica delle stime è la distorsione: una stima si dice indistorta, o imparziale, se mediamente coincide col valore vero del parametro; insomma se

.


Già sappiamo, dai paragrafi (5.3) e (5.8) rispettivamente, che la media dei campioni è una stima indistorta del valore medio della popolazione; mentre la varianza del campione è una stima distorta, ancorché consistente, della varianza della popolazione (a meno che non sia opportunamente corretta moltiplicandola per un fattore ).

Nella figura 11a sono riportati esempi di stime consistenti ed inconsistenti, distorte ed indistorte, per dare un’idea dell’andamento della densità di probabilità delle stime stesse all’aumentare delle dimensioni del campione.

Una terza caratteristica delle stime è l’efficienza: diremo che una prima stima è più efficiente di una seconda se la sua varianza è inferiore, e, quindi, se mediamente essa è più vicina al valore centrale ; che coincide con se la stima è anche imparziale. Esiste un teorema (teorema di Cramér-Rao) del quale ci occuperemo sia più avanti nel corso di questo capitolo, sia in particolare nell’appendice E; questo teorema dimostra l’esistenza di un limite inferiore per la varianza delle stime, e quindi di un limite superiore per la loro efficienza.

Se abbiamo a disposizione, poi, M stime differenti dello stesso parametro , ogni campione di N valori produrrà, attraverso l’applicazione [p. 169 modifica]
Figura 11a - Stime consistenti ed inconsistenti, imparziali e deviate.

[p. 170 modifica]di ognuna di tali stime, M diversi valori per . Se ora indichiamo con f la densità di probabilità congiunta di questi M valori, risulterà in generale

dove con abbiamo, al solito, indicato la funzione densità di probabilità marginale della sola (ovvero la densità di probabilità collegata al presentarsi di un certo valore per indipendentemente da quello ottenuto per le altre stime); mentre è la densità di probabilità di queste ulteriori stime condizionata dal valore della prima.

Nel caso che risulti indipendente da , la conseguenza che da questo fatto si deduce è che, una volta calcolata altre stime sarebbero distribuite comunque nello stesso modo per qualunque valore di ; esse non potrebbero quindi aggiungere nulla alla conoscenza già ottenuta sul valore del parametro : ovverosia sfrutta tutta l’informazione sul parametro ignoto che è contenuta nei dati, ed in questo caso la stima si dice sufficiente. Non è detto che una stima sufficiente per un certo parametro esista; ma se ne esiste una, , allora ne esistono infinite: si può dimostrare infatti che ogni funzione monotona in senso stretto di gode della stessa proprietà.