Teoria degli errori e fondamenti di statistica/6.3

Da Wikisource.
6.3 I momenti

../6.2 ../6.4 IncludiIntestazione 29 agosto 2022 100% Da definire

6.2 6.4

[p. 69 modifica]

6.3 I momenti

Per qualunque variabile casuale x si possono definire, sempre sulla popolazione, i cosiddetti momenti: il momento di ordine k rispetto all’origine, [p. 70 modifica], è la speranza matematica di ; ed il momento di ordine k rispetto alla media, , è la speranza matematica di . In formula (con ovvio significato dei simboli):

e

per una variabile discreta (analogamente, usando le frequenze, si possono definire i momenti rispetto all’origine ed alla media aritmetica di un campione); oppure

e

per una variabile continua.

Chiaramente, se la popolazione è costituita da un numero infinito di elementi (quindi, in particolare, per le variabili continue), non è detto che i momenti esistano; inoltre e . Dalla definizione consegue immediatamente che, per qualsiasi popolazione per cui esista ,

.
È poi facile dimostrare che, per popolazioni simmetriche rispetto alla media, tutti i momenti di ordine dispari rispetto ad essa, se esistono, valgono zero: basta considerare come, negli integrali, i contributi infinitesimi di ognuno degli intervallini si possano associare a due a due in modo che si annullino vicendevolmente. Il valore del momento del terzo ordine rispetto alla media aritmetica può quindi essere considerato una sorta di misura dell’asimmetria di una distribuzione. [p. 71 modifica]

In pratica però si preferisce usare, in luogo di , un parametro adimensionale; definendo il cosiddetto coefficiente di asimmetria (o skewness, in inglese) come

(dove è la radice quadrata della varianza); è nullo per densità di probabilità simmetriche rispetto alla media, oppure ha segno positivo (o negativo) a seconda che i valori della funzione di frequenza per la variabile casuale in questione si trovino “sbilanciati” verso la destra (o verso la sinistra) rispetto al valore medio.

Dal momento del quarto ordine rispetto alla media si può ricavare un altro parametro adimensionale talvolta usato per caratterizzare una distribuzione: il coefficiente di curtòsi , definito come

(6.3)

e che è ovviamente sempre positivo. Esso misura in un certo senso la “rapidità” con cui una distribuzione di probabilità converge a zero quando ci si allontana dalla zona centrale in cui essa assume i valori più alti (individuata dal valore di ): o, se si preferisce, l’importanza delle sue “code” laterali; infatti, quanto più rapidamente la funzione converge a zero in queste code, tanto più piccolo sarà il valore di . Come si potrebbe ricavare integrandone la funzione di frequenza (che troveremo più avanti nel paragrafo 8.2), il coefficiente di curtosi della distribuzione normale calcolato usando la (6.3) vale 3; per questo motivo si preferisce generalmente definirlo in modo differente, usando la

.

Questo fa sì che esso valga zero per la funzione di Gauss, e che assuma poi valori di segno negativo o positivo per funzioni che convergano a zero nelle code in maniera rispettivamente più “rapida” o più “lenta” della distribuzione normale.