Verosimiglianza massima, metodo della

Dizionario di Economia e Finanza (2012)

verosimiglianza massima, metodo della

Samantha Leorato

Metodo di stima dei parametri di un modello statistico, basato sulla massimizzazione della funzione di verosimiglianza (➔). Si assuma il modello parametrico (➔ modello statistico) F={f(x;θ),θΘ}, dove f(x;θ) è una funzione di massa di probabilità o una densità, θ è per semplicità un singolo parametro incognito, e Θ è lo spazio dei parametri. Dato un campione casuale x={x1,...xn} dalla popolazione, la funzione di v. è definita da L(θ;x)=Πni=1f(xi;θ). Il metodo della massima verosimiglianza (MV) propone di stimare θ attraverso quel valore θ^ tale che L(θ^;x)≥L(θ;x) per ogni θΘ. In altre parole, la stima di v. m. di θ è il valore più ‘plausibile’ nello spazio dei parametri alla luce dell’evidenza empirica. Lo stimatore di MV è spesso calcolato attraverso la massimizzazione della logverosimiglianza, ossia del logaritmo della funzione di verosimiglianza. Trattandosi di una trasformazione monotona (➔ monotono), l’applicazione del logaritmo alla verosimiglianza preserva i punti di massimo o di minimo. Lo stimatore di MV può essere visto come uno stimatore ‘per analogia’. Si mostra infatti che, se θ0 è il valore ‘vero’ del parametro nella popolazione, allora il valore atteso del logaritmo della densità Eθ0 log(f(X;θ))=ʃlog(f(x;θ))f(x;θ0)dx, visto come funzione di θ, assume il suo massimo quando θ=θ0. La stima di MV è quel valore nello spazio dei parametri che massimizza, per analogia, la media campionaria n−1Σilog(f(Xi;θ))=n−1log(L(θ;X)). Un’altra chiave di lettura considera la minimizzazione della divergenza di Kullback-Leibler (una misura di discrepanza tra distribuzioni) tra la distribuzione empirica delle osservazioni (che assegna probabilità 1/n a ciascuna delle n osservazioni) e la famiglia di densità finita del modello F (➔ distribuzione empirica).

Esempi di stimatori di MV

Il modello binomiale è usato quando si ha un campione estratto da una variabile aleatoria X che assume i due soli valori {0,1}. Tali valori possono rappresentare per es. l’esito di un esperimento (0=‘insuccesso’,1=‘successo’). Il parametro di interesse è la probabilità di successo, π=P(X=1). Lo stimatore di MV per π è la frazione di successi su n prove, ossia π^ixi/n.

Nel modello gaussiano, dato un campione casuale da una distribuzione gaussiana di media μ e varianza σ2 , la stima di MV di μ è uguale alla media campionaria =ΣiXi/n, quella di σ2 è uguale a σ^2=n−1Σi(Xi−)2.

Il modello di regressione lineare gaussiano è un modello gaussiano per la distribuzione condizionata di una variabile aleatoria Y dato un insieme di variabili aleatorie X, con media E(YX)=α+βX e varianza σ2. I parametri da stimare sono (α,β′,σ2). La stima di MV coincide con quella dei minimi quadrati (➔ minimi quadrati, metodo dei) per i coefficienti della retta di regressione α e β. La stima di MV di σ2 è la media campionaria del quadrato dei residui di regressione (➔ residuo statistico).

Proprietà della stima di MV

Lo stimatore di MV gode di importanti proprietà. Anzitutto, esso è invariante per trasformazioni dei parametri. Ciò significa che se cambia la parametrizzazione, vale a dire se l’interesse si sposta dal parametro θ a una sua trasformazione g(θ)=γ, non è necessario ricalcolare la stima di MV. Infatti, la stima di MV del nuovo parametro è semplicemente γ̂=g(θ^). Lo stimatore di MV è consistente (➔ consistenza) e asintoticamente normale (➔ asintotica, distribuzione) se valgono alcune condizioni. Tali condizioni riguardano: il parametro da stimare θ0, che deve essere un punto interno dello spazio dei parametri Θ; l’esistenza delle derivate prime e seconde della densità dei dati rispetto a θ; l’integrabilità del vettore gradiente (cioè delle derivate prime) e dell’hessiano (➔) della densità dei dati rispetto a θ. Inoltre, lo stimatore di MV è asintoticamente efficiente. Si dimostra che esso raggiunge asintoticamente il limite inferiore di Cramér-Rao (➔ efficienza statistica). Tale limite, il cui calcolo dipende dal modello statistico considerato, è minore o uguale alla varianza di un arbitrario stimatore non distorto per θ. Uno stimatore non distorto che raggiunge il limite inferiore di Cramér-Rao è efficiente (non soltanto asintoticamente). Ci sono casi nei quali lo stimatore di MV non ha un comportamento asintotico ‘standard’ poiché vengono violate alcune delle condizioni suddette. Un caso è quando il supporto della distribuzione di probabilità (cioè l’insieme dei possibili valori) della variabile aleatoria considerata dipende dal parametro da stimare, per es. quando la distribuzione è uniforme in [0,θ]. In questo caso, lo stimatore di MV di θ è inconsistente e non è asintoticamente normale.