Stima della massima verosimiglianza

Sommario:

Stima della massima verosimiglianza
Stima della massima verosimiglianza
Anonim

Il Maximum Likelihood Estimate (VLE) è un modello generale per la stima dei parametri di una distribuzione di probabilità che dipende dalle osservazioni nel campione.

In altre parole, l'EMV massimizza la probabilità dei parametri delle funzioni di densità che dipendono dalla distribuzione di probabilità e dalle osservazioni nel campione.

Quando parliamo di stima di massima verosimiglianza, dobbiamo parlare di funzione massima verosimiglianza. Matematicamente, dato un campione x = (x1,…, Xn) e parametri, θ = (θ1,…,n) poi,

Niente panico! Questo simbolo ha lo stesso significato della somma delle somme. In questo caso, è la moltiplicazione di tutte le funzioni di densità che dipendono dalle osservazioni del campione (xio) e i parametri .

Maggiore è il valore di L (θ | x), ovvero il valore della funzione di massima verosimiglianza, più probabili saranno i parametri basati sul campione.

Funzione logaritmica di EMV

Per trovare le stime di massima verosimiglianza dobbiamo differenziare (derivare) i prodotti delle funzioni di densità e questo non è il modo più comodo per farlo.

Quando ci imbattiamo in funzioni complicate, ciò che possiamo fare è una trasformazione monotona. In altre parole, sarebbe come voler disegnare l'Europa su una scala reale. Dovremmo ridimensionarlo in modo che possa stare su un foglio di carta.

In questo caso, eseguiamo la trasformazione monotona utilizzando i logaritmi naturali poiché sono funzioni monotone e crescenti. Matematicamente,

Le proprietà dei logaritmi ci permettono di esprimere la moltiplicazione di cui sopra come somma dei logaritmi naturali applicati alle funzioni di densità.

Quindi la trasformazione monotona per logaritmi è semplicemente un "cambiamento di scala" a numeri più piccoli.

Il valore stimato dei parametri che massimizzano la probabilità dei parametri della funzione di massima verosimiglianza con i logaritmi è equivalente al valore stimato dei parametri che massimizzano la probabilità dei parametri della funzione di massima verosimiglianza originaria.

Quindi, ci occuperemo sempre della modifica monotona della funzione di massima verosimiglianza data la sua maggiore facilità di calcolo.

Curiosità

Per quanto complesso e strano possa sembrare l'EMV, lo applichiamo continuamente senza rendercene conto.

Quando?

In tutte le stime dei parametri di una regressione lineare sotto ipotesi classiche. Più comunemente noto come Ordinary Least Squares (OLS).

In altre parole, quando applichiamo OLS, applichiamo EMV implicitamente poiché entrambi sono equivalenti in termini di coerenza.

App

Come altri metodi, EMV si basa sull'iterazione. Cioè, ripetere una determinata operazione tutte le volte necessarie per trovare il valore massimo o minimo di una funzione. Questo processo può essere soggetto a restrizioni sui valori finali dei parametri. Ad esempio, che il risultato sia maggiore o uguale a zero o che la somma di due parametri debba essere minore di uno.

Il modello GARCH simmetrico e le sue diverse estensioni applicano l'EMV per trovare il valore stimato dei parametri che massimizza la probabilità dei parametri delle funzioni di densità.