Consistenza

Dizionario di Economia e Finanza (2012)

consistenza

Franco Peracchi

Proprietà asintotica di cui può godere una procedura statistica. La proprietà di c. è definita separatamente per uno stimatore e un test.

Proprietà di consistenza di uno stimatore

Nel caso di uno stimatore, la c. garantisce che, all’aumentare della numerosità campionaria, lo stimatore converge in un particolare senso probabilistico al parametro di interesse. Uno stimatore θ ̂ di un parametro θ ̂ è una funzione delle osservazioni campionarie (X1,...,Xn). Considerando il campione come un insieme di possibili realizzazioni di n variabili aleatorie, si scrive θ ̂n per evidenziare la dipendenza della distribuzione dello stimatore dalla dimensione campionaria. All’aumentare di quest’ultima, {θ ̂n} descrive una successione di variabili aleatorie. La c. di θ ̂n riguarda le proprietà asintotiche della distribuzione della successione θ ̂n. Più precisamente, si dice che θ ̂n è consistente per θ̂n se tale successione ha limite in probabilità uguale a θ, ossia se la distanza tra θ ̂nθ diventa arbitrariamente piccola con probabilità tendente a 1 al crescere della numerosità campionaria. Questa definizione di c. è talvolta chiamata c. in senso debole, per distinguerla da quella in senso forte, basata sulla convergenza quasi certa della successione θ ̂n a θ . Poiché la convergenza quasi certa è più forte della convergenza in probabilità, uno stimatore consistente in senso forte è anche consistente in senso debole, mentre non è vero il contrario. La c. di uno stimatore è garantita quando il suo errore quadratico medio o MSE (Mean Square Error) tende a zero. Questo perché MSE=E(θ ̂θ)2→0 coincide con la definizione di convergenza in media quadratica, che a sua volta implica la convergenza in probabilità, di θ ̂ a θ. Infatti, indicando con E(θ ̂) la media dello stimatore θ ̂, il MSE si scompone nella somma: MSE(θ ̂)=E(θ ̂E(θ ̂))2+(E(θ ̂) −θ ̂)2. Il primo termine è la varianza dello stimatore θ ̂, mentre il secondo, che indica la distanza tra il valore atteso dello stimatore e il vero parametro, è chiamato distorsione ed è nullo nel caso in cui θ ̂ sia uno stimatore corretto (non distorto). Per provare la c. è quindi spesso conveniente dimostrare che entrambi gli addendi hanno limite pari a zero al crescere della numerosità campionaria.

Nel contesto del campionamento casuale semplice, la media campionaria e la varianza campionaria sono stimatori consistenti, rispettivamente, della media e della varianza della popolazione. Gli stimatori di massima verosimiglianza sono in genere consistenti per i parametri di interesse, anche se alcune condizioni di regolarità devono essere garantite.

Proprietà di consistenza di una statistica test

Un test (➔) è consistente se, con probabilità che tende a 1 al crescere della numerosità campionaria, esso rifiuta l’ipotesi nulla quando questa è falsa. Si supponga di voler verificare l’ipotesi nulla (➔ ipotesi statistica) H0 che la distribuzione F della popolazione appartenga a un insieme Ω0 contro l’alternativa H1che invece F sia in Ω1. Si consideri un test basato sulla statistica test Tn=T(X1,...,Xn) definita da una qualche trasformazione T delle osservazioni campionarie X1,...,Xn. Si dice che il test è consistente per l’ipotesi nulla FΩ0 contro l’alternativa FΩ1, se fissato un livello di significatività, α<1, la potenza del test tende a 1 al crescere della numerosità campionaria n. In formule, assumendo che la regione del rifiuto del test al livello α sia definita dall’intervallo ∣Tn∣>cn,α, il test è consistente se, al crescere di n, Prob(∣Tn∣>Cn,α)→1 quando FΩ1.